機器學習一直是最近應用的熱潮,不管是大語言模型(LLM)還是比較早期的深度神經網路(DNN) 都有其應用的場景存在。但機器學習模型本身就沒有安全議題嗎? 答案當然是否定的,有新技術的地方就會有破綻,有破綻的地方駭客就會想利用。但機器學習模型背後的原理多半牽涉數學,駭客的攻擊手法也多半跟數學有關,而我數學就爛怎麼辦呢? 所以本系列以一個數學不好的人作為出發點,試著參考一些 github 專案跟書籍資料,由簡而深的介紹 深度神經網路(DNN) 模型會遭遇到的各種攻擊,讓觀看者透過這些攻擊手法了解模型的攻擊表面,未來進而去制定防禦或是偵測機制。
參考資料 : PDF投影片及程式碼 : 2024_iThome_DNN_Security HackingNeuralNetworks/2_Extrac...
參考資料 : PDF投影片及程式碼 : 2024_iThome_DNN_Security HackingNeuralNetworks/2_Extrac...
參考資料 : PDF投影片及程式碼 : 2024_iThome_DNN_Security HackingNeuralNetworks/3_BruteF...
參考資料 : PDF投影片及程式碼 : 2024_iThome_DNN_Security HackingNeuralNetworks/4_Neural...
參考資料 : PDF投影片及程式碼 : 2024_iThome_DNN_Security 機器終身學習 (Life Long Learning, LL...
參考資料 : PDF投影片及程式碼 : 2024_iThome_DNN_Security Model Agnostic Defence against...
參考資料 : PDF投影片及程式碼 : 2024_iThome_DNN_Security Concatenate layer Triggerles...
參考資料 : PDF投影片及程式碼 : 2024_iThome_DNN_Security Four Defenses Against Adversar...
參考資料 : Machine Learning For Security Professionals: Building And Hacking ML...
PDF投影片及程式碼 : 2024_iThome_DNN_Security EXPLAINING AND HARNESSING ADVERSARIAL...