iT邦幫忙

2021 iThome 鐵人賽

DAY 25
1

實作 -『如何啟用 WAF日誌以及匯入 BI 進行分析』,
Data Analytics Pipeline 如下圖所示:
https://ithelp.ithome.com.tw/upload/images/20211009/20131073Kn9aYhJ1ud.png
那我們就開始吧 GOGO


步驟一、於 AWS Console 搜尋 WAF

https://ithelp.ithome.com.tw/upload/images/20211009/20131073gN0llwGDp5.png


步驟二、點選 Logging and metrics 後啟用 WAF Log

https://ithelp.ithome.com.tw/upload/images/20211009/20131073WXummQpc7I.jpg


步驟三、選擇先前創建的 AWS Kinesis Data Firehose

這時候大家可能有些人會找不到先前創建的 Kinesis,原因可能有以下兩種:

  • Kinesis 名稱問題:Kinesis 的命名務必要以『aws-waf-logs』開頭命名,不然下拉式選單無法選取為了蒐集 WAF Log 建立的 Kinesis Data Firehose
  • Kinesis 建立的區域:因我們是將 WAF 掛在 CloudFront 上,而 AWS CloudFront 服務為 Global,故我們需要在 Kinesis 要建在 US East (N. Virginia) us-east-1 區域
    https://ithelp.ithome.com.tw/upload/images/20211009/20131073o5AsxJKyfM.png

步驟四、編輯欄位內容

Redacted fields:可以將 Logs 中的特定欄位加密變成密文,舉例來說:如果我勾選 URI path 欄位,那麼此欄位就不會顯示原始內容,而是 xxx 的紀錄
https://ithelp.ithome.com.tw/upload/images/20211009/20131073V7bhUf9OoV.png


步驟五、Logs 篩選設定

Filter logs:可以設定要記錄/不記錄哪些內容並傳到 AWS Kinesis Data Firehose,這邊我們選擇不增加篩選條件
https://ithelp.ithome.com.tw/upload/images/20211009/20131073dKPeXmk33S.png


接著按下儲存,之後就會看到 AWS S3 有出現相關資料了~
https://ithelp.ithome.com.tw/upload/images/20211009/20131073aCbCpzN1HC.png

現在我們已經成功將資料源『 WAF Log 』透過 AWS Kinesis Data Firehose 服務將 Log 儲存到 AWS S3 中,接下來我們就會針對 WAF Log 進行資料分析以及視覺化的部分,那就明天見囉 : D ~

如果有任何指點與建議,也歡迎留言交流,一起漫步在 Data on AWS 中。


上一篇
【Day 24】 實作 - 創建 AWS Kinesis Data Firehose for WAF
下一篇
【Day 26】 實作 - 於 AWS QuickSight 建立 Parameters 以及 Filter 設定
系列文
Data on AWS - 實作建立 Data Analytics Pipeline30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言