機器學習一直是最近應用的熱潮,不管是大語言模型(LLM)還是比較早期的深度神經網路(DNN) 都有其應用的場景存在。但機器學習模型本身就沒有安全議題嗎? 答案當然是否定的,有新技術的地方就會有破綻,有破綻的地方駭客就會想利用。但機器學習模型背後的原理多半牽涉數學,駭客的攻擊手法也多半跟數學有關,而我數學就爛怎麼辦呢? 所以本系列以一個數學不好的人作為出發點,試著參考一些 github 專案跟書籍資料,由簡而深的介紹 深度神經網路(DNN) 模型會遭遇到的各種攻擊,讓觀看者透過這些攻擊手法了解模型的攻擊表面,未來進而去制定防禦或是偵測機制。
參考資料 : Machine Learning For Security Professionals: Building And Hacking ML...
參考資料 : PDF投影片及程式碼 : 2024_iThome_DNN_Security TensorFlow Remote Code Executi...
參考資料 : PDF投影片及程式碼 : 2024_iThome_DNN_Security Models Are Code How to conve...
參考資料 : PDF投影片及程式碼 : 2024_iThome_DNN_Security OWASP Top 10 for Large Languag...
安裝指令 : conda install -c conda-forge jupyter_contrib_nbextensions jupyter cont...