iT邦幫忙

2022 iThome 鐵人賽

DAY 15
0
AI & Data

預測惱人的人事物:跟我一起學習如何用資料分析來避開他們系列 第 15

文獻閱讀整理:Noise Prediction Using Machine Learning with Measurements Analysis (Part 1)

  • 分享至 

  • xImage
  •  

方向微調

今天本來要直接開始學習一些統計的概念,但思考後,因為筆者並沒有學過統計學,現在如果貿然深入,很有可能不確定什麼知識是我未來完成這個專案需要的,進而花費太多時間在理解一些較無關的概念而偏題。

在時間有限的狀況下,筆者決定先開始讀下一篇文章,等真的有方向了再來開始也不遲。

前一篇文章的 Part 2 會視情形補完,或與其他篇的部分一起整理。

讓我們開始學習吧!


以下內容整理自:https://www.mdpi.com/2076-3417/10/18/6619/htm

新名詞

  1. root-mean-square-error (RMSE)
    1. 迴歸預測模型的兩種主要效能指標之一,可衡量預測值和實際值之間的平均差異,藉此估計預測模型預測目標值的準確度。值越低,表示預測模型越精準來源
    2. 文章摘要提到,此模型的 RSME 小於 1 dBA。但其實筆者沒有概念這樣多好。
  2. coefficient of determination (R2, R square)
    1. 衡量回歸模型表現的指標,代表從獨立變數X可以解釋依變數Y變異的比例
    2. R square變高本身是好事,代表解釋程度更高,但是放太多不重要的變數,會使得係數的估計變得不穩定。
    3. 以上整理自此來源
    4. 文章摘要提到,此模型的 R2 大於 0.7。筆者不能確定要多靠近 1 才是好。
  3. fitting function
    1. 曲線擬合 (Curve fitting) 的相關概念。
    2. 用來選擇最能解釋一組資料的函數的參數值參照:12 Function Fitting - MIT Fab Lab
  4. loss function 損失函數
    1. 這篇的解釋很棒:機器/深度學習: 基礎介紹-損失函數(loss function)
      1. 模型的好壞,希望最小化損失函數。在回歸和分類的情境都是希望愈小愈好
      2. 預測出來的東西基本上跟實際值都會有落差,這個落差在統計上稱為「殘差(residual)」。
      3. 損失函數中的損失就是「實際值和預測值的殘差」。
      4. 此篇中後段因為涉及其他概念,暫時不整理。

新概念

  1. 在持續暴露於 70 分貝以上的情況,人們會變得易怒、緊張、難以集中。85 分貝以上很可能會造成聽力的慢性損傷,有可能形成職災。
  2. 針對非線性的噪音資料,gradient lifting technology 是具有較高的正確率的。在另外一篇預測臺灣空污的論文中也有用到此種方法論。gradient lifting technology 被用來尋找 fitting function預期損失函數最小的情形

今天收工,我們明天繼續!


上一篇
文獻閱讀整理:噪音預測模式電腦軟體模擬方法選用準確性之研究 (Part 1 of 2)
下一篇
到底資料分析需要多少統計學?
系列文
預測惱人的人事物:跟我一起學習如何用資料分析來避開他們38
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言