聚焦於深度學習在人機互動中的感知應用,包含動作與情緒辨識模型的實作與部署,探討語音、手勢、情緒等輸入如何結合 UI/UX 元件,打造具回饋能力的介面。
前言 大多數推薦系統只學「你點了什麼」,很少理解「你當下的狀態」。但人在不同情緒下,偏好會位移:通勤路上想看輕鬆短內容,下班後才有耐心讀長文;焦慮時偏向保守選項...
前言 把「感知 → 理解 → 回應」做成順、穩、可用的互動,是這一類系統的靈魂。今天用低門檻、可上手的方式,帶你看清整條鏈路該怎麼設計:哪些感測訊號值得用、資料...
前言 昨天我們把「感知 → 理解 → 回應」拆成可落地的骨架。今天的任務很單純:把骨架跑起來。用 Gradio 搭一個可點可玩的多模態 Demo,把表情 × 手...
前言 到目前為止,我們已經把「感知 → 融合 → 狀態 → 回饋」跑起來了;今天轉向 人機互動(HCI) 本身:當 ChatGPT 這類大型語言模型(LLM)變...
前言 不管你做的是資料產品、內容網站、還是 side project app,最大的痛點通常不是技術,而是流程「接不起來」。從資料到上線,再到持續改善。原則只有...
前言:為什麼解析這篇論文? 今天我們深入解析 "Deep Learning for Human Affect Recognition: Insight...