iT邦幫忙

2025 iThome 鐵人賽

DAY 24
0
生成式 AI

30 天 Vibe Coding:全端 × 機器學習的實作挑戰系列 第 24

Day 24|30 天 Vibe Coding:把更聰明的情緒模型塞回日記裡

  • 分享至 

  • xImage
  •  

前兩天先把原本的關鍵字評分換成模型,再加強一下,讓模型可以說出他對這個結果有多有信心,以及解釋是怎麼評分的,但因為都是另外跑的,還沒有接回我原本的情緒日記網站。
所以今天的目標就是要把模型放上雲端且接回情緒日記!


開發過程紀錄

1. 從 Render 到 Hugging Face Docker

一開始我嘗試把情緒模型丟到 Render,結果碰到一個很硬的限制:
免費方案記憶體只有 512MB,每次模型一載入就直接 OOM(Out of Memory),服務根本啟不動/images/emoticon/emoticon02.gif

我試了各種方法壓縮、調參,甚至只開單 worker,還是會在載模型的瞬間爆掉。這讓我意識到,Render 免費方案根本撐不住 NLP 模型,而我錢包空空不想付錢

最後我決定直接搬到 Hugging Face Spaces(Docker Runtime),好處是:

  1. 可以完全掌控 main.py 的推論邏輯(加解釋、改 threshold、加 bias 都行)
  2. HF 幫忙處理自動 build / cache,不用自己維護 VM
  3. 記憶體夠用,前端直接打 https://xxx.hf.space/infer 就能拿到 JSON

搬到 Hugging Face Docker 之後就順了許多;載入不再爆記憶體,前端打 API 也單純,終於能好好睡一覺(部署那天真的被來回修到崩潰 QQ)

2. UI 強化

前端日記清單上,原本只有一個單色的情緒標籤。現在我加上:
百分比數字:直接看到信心,例如「負向 84%」
顏色深淺:信心高的標籤更飽和

關鍵詞標籤:小圓角 Tag,hover 可以看到貢獻度

整體感覺比之前「黑箱判斷」更透明。
https://ithelp.ithome.com.tw/upload/images/20250910/20140998bVOkP8sSVw.pnghttps://ithelp.ithome.com.tw/upload/images/20250910/201409986nMskBTVDS.png

今天算是一個重要的里程碑:不只是讓情緒模型「能跑」,而是「能解釋」,而且還能 在 Hugging Face 上用 Docker 部署,讓它像一個正式的雲端服務一樣穩定運行。也會顯示關鍵字讓使用者知道模型是根據什麼判定的(但其實我還是覺得很多時候它很不準,真的不知道是模型太笨還是我太笨,我會再慢慢嘗試調整模型/images/emoticon/emoticon70.gif


明日預告

明天要來做語音輸入,不改後端、不碰模型,單純把日記頁加一顆麥克風按鈕。按下去就用瀏覽器的 Web Speech API(先鎖 zh-TW)開始聽,畫面顯示「錄音中」的小動態;放開就把逐字稿直接塞進輸入框(先不自動儲存,避免亂沖內容)。情緒分析的串接等 Day 26 之後再來~


上一篇
Day 23|30 天 Vibe Coding:模型說我在生氣,那總得告訴我為什麼吧
系列文
30 天 Vibe Coding:全端 × 機器學習的實作挑戰24
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言