iT邦幫忙

2024 iThome 鐵人賽

DAY 28
0

“另一個新的資安問題是, AI 的誕生。因為AI 的技術和應用日益先進,出現了一些以往不同的資安問題。例如:深偽技術被用於商業郵件詐騙(BEC)攻擊,駭客利用深偽技術假冒高層進行視訊會議,騙取員工信任並進行詐騙。假訊息的散播成為金融詐騙的一部分,對金融機構的信譽和客戶信任造成威脅。假訊息的散播也成為政治操控的部分,更有用深偽技術制造假的新聞或影像,傳播不實言語或操弄人心走向。也因為生成式AI,產生資料外洩,資料偏見等問題。以目前最嚴重的狀態有,公司用AI 去評量員工的績效和去留,以及用AI 去面試和考量面試者的狀態。”畫鯨深深的吸一口氣。

他接著說,“因為AI在訓練過程中也會產生一些問題,比如資料偏見。很多AI模型都是用大量的數據訓練出來的,如果這些數據本身就存在偏見,那麼訓練出來的AI模型也會帶有偏見。尤其,現在主流的 AI 系統,他們的系統數據,都以大量的西方,白人,男性,以及高學歷,和屬於高階社會背景的為主。很多公司雖然對外說會加強和修正,但,他們也提到收集資料和樣本的困難度。“

皮鯨驚訝的問,”那怎麼辦?“

畫鯨望著遠方像在思索地回答道,”對於,這些新生成的AI問題,需要大家有意識的去辨識,和加強去除AI的偏見。舉例來說,首先,我們需要提高大家的媒體素養,學會辨別真假資訊。其次,我們需要加強對AI的監管,制定相關的法規,防止AI被濫用。同時,我們也需要不斷完善AI的算法,減少偏見的產生。更重要的是,我們需要讓更多的人參與到AI的開發和應用中來,讓AI的發展更加多元化。AI的發展勢不可擋,我們不能坐以待斃。我們需要積極探索,尋找解決方案。也或許,我們可以利用AI來對抗AI,比如用AI來檢測深偽影片,用AI來消除資料中的偏見。畢竟,生成式AI 只會越來越強,讓人越來越分不清真偽。”


上一篇
資安的新危機 - 量子電腦
下一篇
Deepfake AI 的辨識
系列文
Security 小白的 PM33
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言