今日目標(3 項)
學習如何用生成式 AI(如 ChatGPT 或本地 LLM)協助分析 log、封包、或惡意程式碼片段。
撰寫一個簡易 Python 腳本,讓 AI 自動讀取特定檔案內容並生成初步報告(例如可疑 IP、異常行為描述)。
探討 AI 在資安分析流程中的限制與風險(例如誤報、隱私洩漏、模型幻覺問題)。
今日實作步驟
準備一份小型 log 或封包資料(例如前幾天的 Apache log)。
撰寫 Python 腳本串接本地模型或模擬 LLM 輸出(可直接呼叫 OpenAI API 或離線模型)。
設計 prompt 模板,例如:
請閱讀以下 log 並找出可疑 IP、請解釋原因並評分風險:
<log_content>
比較 AI 輸出與人工分析差異,記錄準確度與可用性。
最後撰寫「AI 在資安分析中應扮演的角色與限制」簡短結論。
今天測試了生成式 AI 輔助資安分析的可能性,用 Python 模擬讓 AI 讀取 log 並自動生成可疑活動報告。AI 能快速歸納 IP 與行為模式,但也出現誤判與過度推論的情況。這次實驗讓我了解 AI 適合輔助分析、提供方向,而非取代人工判斷。未來想嘗試結合自動化偵測規則與 LLM 回饋,打造半自動資安分析流程。