點與點之間的距離 K-NN依照點與點之間的距離來計算點之間的相似性 通常使用的距離度量是歐氏距離(Euclidean Distance),但根據實際情況,也可...
決策邊界(Decision Boundary) 分類問題: 二元或多元分類問題 二元分類: 決策邊界是一條線、曲線或超平面 多元分類: 決策邊界是多維...
終於進入機器學習的實作階段啦,今天要來用鳶尾花資料集介紹一下羅吉斯回歸的作法。 如果覺得很難懂或很無聊再留言跟我說一下耶,寫程式要寫得好玩真的有點難@@ 今天...
前言 當我們要評估一名運動員的好壞,就會針對一些體能項目做評估,像是肌耐力、爆發力、彈跳力等,這些項目也可以稱做是衡量球員水準的指標,同樣的如果我們要評估一個模...
將所有樣本中相近得樣本點組成一個群組,一層一層往上堆疊,直至所有的樣本皆被分成一個群組為止 Hierarchical Clustering 透過將最接近的...
支援向量機(Support Vector Machine,SVM) 用於監督式學習中的分類和回歸 找到一個超平面將不同類別的數據點分開,同時最大化兩個類別之間...
總的來說就是物以類聚 K-means Clustering 將數據集中的數據點分成不同群組,以便相似的數據點彼此靠近 選擇K值: 決定要將資料分成...
前言 在訓練完我們的模型之後,通常會用測試資料給我們的模型做測試,評估模型在測試資料上的表現,那要用什麼來評判這個模型的好壞呢?於是我們就用一些驗證指標 ( V...
貝氏定理 P(A∣B) = P(B∣A)⋅P(A)/P(B) P(A∣B):表示在事件B發生的條件下,事件A發生的機率,稱為後驗機率。 P(B∣A):表示在...
邏輯迴歸 (Logistic Regression) 分類度量 混淆矩陣(Confusion Matrix) 混淆矩陣包括真正例(True Positives,...
kernel trick 作天的SVM跟SVR有提到可以用kernel function將資料映射到高維空間中 解決的問題:當資料在原始空間中無法被線性分...
前言 交叉驗證 ( Cross-Validation ) 是在機器學習中是一個評估模型性能的技術,從而使我們能更準確地估計模型在面對陌生資料的擬和能力,也就是模...
前言 在訓練模型時,有時會被一些專有名詞搞混,像一個參數就有分「參數」和「超參數」,今天我們要來搞清楚這兩個名詞的差異啦 ~ 參數 Parameters 在...
SVM (Support Vector Machine) 若資料為非線性,將資料映射到高維空間中(用kernel function) 找一超平面將資料分開,...
於建立自變數(cause)和依變數(dependent variable)之間關係的統計模型 自變數(independent variable):解釋變數,是...
為強學習機融合方法 stacking 第一層為level 0,第二層為level 1 第一層可包含多個學習機,第二層只能有一個 第一層的學習機被稱為...
訓練與測試集合 訓練集就像是在一門課學習東西;測試集就像是學完這堂課的內容後所出的考試 from sklearn.model_selection import...
前言 學習率 ( Learning Rate ) 是梯度下降優化算法中的一個重要 超參數,它決定了在每一步更新模型參數時,參數應該調整多少。學習率的選擇對於優化...
特徵工程 將原始數據轉換為更有價值和更有意義的特徵,以改善機器學習模型的性能。良好的特徵工程可以提高模型的準確性、降低過度擬合風險 特徵正規化 線性函數正規化(...
前言 在機器學習和深度學習中,損失函數 ( Loss Function ) 是一種用來衡量模型預測值與實際目標之間差異的函數,模型經過損失函數的計算後就會知道模...
是基於 Gradient Boosted Decision Tree (GBDT) 改良與延伸 Boosting XGBoost是一種集成學習技術,通過組...
基本架構 1.找出問題2.思考是否真的需要使用機器學習?3.資料收集4.資料前處理5.特徵工程6.模型訓練7.模型評估8.微調模型&參數9.預測&...
boosting 前幾天有寫過一點關於boosting跟bagging大概的概念,今天開始前再簡單說一下 透過組合弱學習機、改進每一次的錯誤、從而獲得一個...
動量 Momentum 動量的核心概念就是依據現實生活中物理上的慣性去更新參數,參數更新公式: 當前參數更新時除了梯度,還會考慮前一步的梯度 ( 移動方向 )...
前言 在機器學習和深度學習中,優化器就是個能夠優化模型的工具,用梯度下降法幫我們調整模型參數以最小化 ( 優化 ) 模型的損失函數,在訓練過程中,模型根據輸入數...
原理 組合多個弱學習機來構建一個強學習機 將每個樣本的權重初始化為相等的值 建構弱分類器 將誤差大的資料權重加大 重複2跟3 加權投票決定結果 建構弱...
使用多種學習算法來獲得比單獨使用任何單獨的學習算法更好的預測效果 集成學習 通過建立幾個模型組合來解決單一預測問題 所用來組合的多個模型之間要有差異...
前言 梯度下降 ( Gradient Descent ) 是一種最優化模型算法,用於調整模型參數以最小化損失函數。它是機器學習和深度學習中最常用的優化方法之一,...
前言 之前提到多層感知器的概念,每層的感知器會隨著層數一層一層往下傳遞,輸出的函數也會越來越複雜,而這往下傳遞的過程,就稱為正向傳遞。 在神經網路中,模型的訓練...
人工智慧 再來要開始慢慢進入人工智慧的領域啦~ 再來都會使用圖文以及一些小範例來介紹! 機器學習 從數據中學習的技術,而不是通過明確編程來執行任務(餵資料)...