起初對 AI 在情感偵測上的應用 產生興趣,源自於筑波大學研究團隊所提出的一項非接觸式「多模態情感辨識」框架。該技術能透過非接觸方式取得病人的心跳、呼吸等生理數據,並結合語音與語意內容進行分析,以更準確地辨識情緒,展現科技在醫療領域「讀懂情感」的潛力。這使我開始思考,如何利用科技感測人類的聲音、呼吸、語速與表情等多維度訊號,來詮釋個體狀態、洞察行為模式,甚至模擬人類互動。我的研究目標是透過不同的 AI 方法進行情感偵測與判斷,並進一步延伸至醫療照護、生物科學、健康生活及心理教育等多元應用場域,期望能在人機互動與情感計算領域帶來新的突破。
在做語音辨識、音樂分類、甚至情感計算(Affective Computing)的時候,「音訊特徵」是核心。光有一段 .wav 聲音檔,電腦其實「聽不懂」,我們需...
圖片來源:https://analyticsindiamag.com/deep-tech/a-beginners-guide-pytorch/ 為什麼要認識 P...
目標:在 TD 的 Script TOP/CHOP 裡 import torch 能成功;影像資料可在 TD ↔ NumPy ↔ Torch 張量間轉換。 St...
今天是我正式「跑通 PyTorch」的一天!從安裝環境、建虛擬環境,到看到 Loss: 1.2695 那一刻,真的是 AI 新手踏入深度學習的第一步。 為什麼...
昨天我們用 PyTorch 建了一個最簡單的「線性神經網路」,但那只能看「一個瞬間」的資料。如果今天的輸入不是靜態的數字,而是像這樣的東西:聲音波形(連續變化)...
修好 LSTM forward執行圖 “你永遠不會忘記第一次看到 NotImplementedError。” 今天的任務很簡單:我想讓我的 LSTM 模型學會一...
「讓 LSTM 看懂時間的節奏。」昨天我們讓模型學會「數數」,今天讓它學會「聽懂節奏」——從波形中找出規律。 本日目標 了解 時序資料的特性 用 sin 波...
每次訓練後,LSTM 都會「忘記」前一段的資訊。這就像你在讀小說時:每讀 50 頁就完全忘光前面劇情,這樣模型沒辦法學會長期的關聯性。例如:股價在一週前的趨勢仍...
在互動展演、沉浸式裝置藝術中「用手就能控制畫面」 一直是最能吸引觀眾、讓人 WOW 的體驗。而如今,不用貴鬆鬆的深度相機,只要一台普通筆電 + TouchDe...