起初對 AI 在情感偵測上的應用 產生興趣,源自於筑波大學研究團隊所提出的一項非接觸式「多模態情感辨識」框架。該技術能透過非接觸方式取得病人的心跳、呼吸等生理數據,並結合語音與語意內容進行分析,以更準確地辨識情緒,展現科技在醫療領域「讀懂情感」的潛力。這使我開始思考,如何利用科技感測人類的聲音、呼吸、語速與表情等多維度訊號,來詮釋個體狀態、洞察行為模式,甚至模擬人類互動。我的研究目標是透過不同的 AI 方法進行情感偵測與判斷,並進一步延伸至醫療照護、生物科學、健康生活及心理教育等多元應用場域,期望能在人機互動與情感計算領域帶來新的突破。
在做語音辨識、音樂分類、甚至情感計算(Affective Computing)的時候,「音訊特徵」是核心。光有一段 .wav 聲音檔,電腦其實「聽不懂」,我們需...
圖片來源:https://analyticsindiamag.com/deep-tech/a-beginners-guide-pytorch/ 為什麼要認識 P...