機器學習一直是最近應用的熱潮,不管是大語言模型(LLM)還是比較早期的深度神經網路(DNN) 都有其應用的場景存在。但機器學習模型本身就沒有安全議題嗎? 答案當然是否定的,有新技術的地方就會有破綻,有破綻的地方駭客就會想利用。但機器學習模型背後的原理多半牽涉數學,駭客的攻擊手法也多半跟數學有關,而我數學就爛怎麼辦呢? 所以本系列以一個數學不好的人作為出發點,試著參考一些 github 專案跟書籍資料,由簡而深的介紹 深度神經網路(DNN) 模型會遭遇到的各種攻擊,讓觀看者透過這些攻擊手法了解模型的攻擊表面,未來進而去制定防禦或是偵測機制。
PDF投影片及程式碼 : 2024_iThome_DNN_Security EXPLAINING AND HARNESSING ADVERSARIAL...
PDF投影片及程式碼 : 2024_iThome_DNN_Security Deep Leakage from Gradient (2019) De...
PDF投影片及程式碼 : 2024_iThome_DNN_Security Making new layers and models via subcl...
PDF投影片及程式碼 : 2024_iThome_DNN_Security Deep Leakage from Gradients 從梯度拿到你的資料...
PDF投影片及程式碼 : 2024_iThome_DNN_Security Towards Evaluating the Robustness of N...
PDF投影片及程式碼 : 2024_iThome_DNN_Security Using TensorFlow Optimizers to Minimiz...
PDF投影片及程式碼 : 2024_iThome_DNN_Security Harry24k/CW-pytorch Softmax函式 How...
PDF投影片及程式碼 : 2024_iThome_DNN_Security Poison Frogs! Targeted Clean-Label Poi...
PDF投影片及程式碼 : 2024_iThome_DNN_Security The Sequential model
參考資料 : PDF投影片及程式碼 : 2024_iThome_DNN_Security Poison Frogs! Targeted Clean-L...