在這段深入的學習旅程中,我們成功地應用深度學習技術解決了自然災害的快速識別問題。我們建立了一個高效能的 災害影像分類系統,並將其部署至雲端,實現了從學術研究到實際應用的閉環。
一、專案核心成果與模型性能總結
我們的目標是透過嚴謹的方法,選出最穩定且準確的模型,實現多種自然災害的自動化分類。
| 評估指標 | ResNet34(冠軍模型) | 總結 |
|--------------------|----------------------|----------------------------------------------------------------------|
| 最終準確度 | 約 **96.6%** | 在未見過的測試集上維持極高的分類準確性。 |
| 平均 AUC (ROC) | **0.985** | 顯示分類決策的高置信度與優異的排序能力。 |
| 穩定性 | 訓練損失曲線優化 | 透過 **Early Stopping** 避免過擬合,確保權重具備良好泛化能力。 |
將 AI 影像分類與SDG 13(氣候行動)實際接軌:一方面把災害影像的判讀從人工改為自動化,於事件發生時可在秒級產出分類結果、縮短決策鏈並提升前線應變效率;另一方面以 fast.ai 導出權重並部署到 Hugging Face Spaces,讓研究成果快速、公開地轉化為可即用的雲端服務,便於政府與民間單位串接預警與通報流程,實現從數據→模型→部署的閉環落地。
二、應用價值:實現 SDG 氣候行動
提升應變速度: 將影像的分類過程從人工判讀轉為自動化,在災害發生時提供秒級的分類結果,極大地縮短了決策鏈。
數據轉化與部署: 透過 Fast.ai 導出權重,並部署至 Hugging Face Spaces,證明了研究成果可以快速、公開地轉化為實際的雲端應用,供相關機構參考使用。
三、下一步展望:從感知到智慧決策 (CV $\to$ LLM)圖像分類器已經出色地完成了 「感知」 任務,即識別 「發生了什麼災害?」。但真正的挑戰在於 「決策」。因此,我們將開啓下一階段:利用 大型語言模型 (LLM),將 CV 的分類結果作為情境輸入,驅動一個具備 知識檢索 (RAG) 能力的 災害應變輔助機器人,以實現更全面、更智慧的應變流程。