於建立自變數(cause)和依變數(dependent variable)之間關係的統計模型 自變數(independent variable):解釋變數,是...
為強學習機融合方法 stacking 第一層為level 0,第二層為level 1 第一層可包含多個學習機,第二層只能有一個 第一層的學習機被稱為...
訓練與測試集合 訓練集就像是在一門課學習東西;測試集就像是學完這堂課的內容後所出的考試 from sklearn.model_selection import...
前言 學習率 ( Learning Rate ) 是梯度下降優化算法中的一個重要 超參數,它決定了在每一步更新模型參數時,參數應該調整多少。學習率的選擇對於優化...
特徵工程 將原始數據轉換為更有價值和更有意義的特徵,以改善機器學習模型的性能。良好的特徵工程可以提高模型的準確性、降低過度擬合風險 特徵正規化 線性函數正規化(...
前言 在機器學習和深度學習中,損失函數 ( Loss Function ) 是一種用來衡量模型預測值與實際目標之間差異的函數,模型經過損失函數的計算後就會知道模...
是基於 Gradient Boosted Decision Tree (GBDT) 改良與延伸 Boosting XGBoost是一種集成學習技術,通過組...
基本架構 1.找出問題2.思考是否真的需要使用機器學習?3.資料收集4.資料前處理5.特徵工程6.模型訓練7.模型評估8.微調模型&參數9.預測&...
boosting 前幾天有寫過一點關於boosting跟bagging大概的概念,今天開始前再簡單說一下 透過組合弱學習機、改進每一次的錯誤、從而獲得一個...
動量 Momentum 動量的核心概念就是依據現實生活中物理上的慣性去更新參數,參數更新公式: 當前參數更新時除了梯度,還會考慮前一步的梯度 ( 移動方向 )...
前言 在機器學習和深度學習中,優化器就是個能夠優化模型的工具,用梯度下降法幫我們調整模型參數以最小化 ( 優化 ) 模型的損失函數,在訓練過程中,模型根據輸入數...
原理 組合多個弱學習機來構建一個強學習機 將每個樣本的權重初始化為相等的值 建構弱分類器 將誤差大的資料權重加大 重複2跟3 加權投票決定結果 建構弱...
使用多種學習算法來獲得比單獨使用任何單獨的學習算法更好的預測效果 集成學習 通過建立幾個模型組合來解決單一預測問題 所用來組合的多個模型之間要有差異...
前言 梯度下降 ( Gradient Descent ) 是一種最優化模型算法,用於調整模型參數以最小化損失函數。它是機器學習和深度學習中最常用的優化方法之一,...
前言 之前提到多層感知器的概念,每層的感知器會隨著層數一層一層往下傳遞,輸出的函數也會越來越複雜,而這往下傳遞的過程,就稱為正向傳遞。 在神經網路中,模型的訓練...
人工智慧 再來要開始慢慢進入人工智慧的領域啦~ 再來都會使用圖文以及一些小範例來介紹! 機器學習 從數據中學習的技術,而不是通過明確編程來執行任務(餵資料)...
隨機森林是由多棵昨天提過的決策樹組成,適合用在分類問題 原理 由很多顆決策樹組成,他會先從原資料中隨機抽取多個樣本,用這些樣本以隨機特徵選取的方式建立多棵...
NCPC 小炮灰,謝謝你簽到題,至少不是 0。 線性迴歸( Linear Regression ) 用於預測未知資料的值找多個自變數( independent...
主要用於分類,也可以改為回歸樹(不建議),今天只討論單顆決測樹,明天會學習多顆決策樹組合成的隨機森林 決策樹原理 對資料重複進行二元分割,形成樹狀結構 根...
筆者今天不用補課很快樂,但生理時鐘還是讓我在九點多就醒了,可惡我以為今天會睡爽爽地說,但早上不用通勤很快樂,總之讓我們開始今天的筆記吧! 今天說一些機器學習...
前言 在神經網路中,通常會讓每層的神經元輸出後再經過激勵函數,它對於神經網路的性能扮演著重要的角色,主要是利用激勵函數的下列特性: 引入非線性:我們知道神經元...
前幾天的迴歸模型中,我們希望找到一個函數能最好的表達因變數與自變數之間的關係,而尋找這個函數的方法就是定義損失函數(loss function)或稱成本函數(...
昨天很快樂的開始說監督式學習,突然發現有東西沒說到,所以補到今天,這就是當天想當天主題的可悲,總之今天來寫寫模型得一些東東。 不知道為甚麼一職寫關於介紹的東...
前言 其實模型就是個函數,為特徵資料的線性函數,用來表示特徵 ( 輸入 ) 與目標 ( 輸出 ) 之間的關係,但這個函數顯然太過簡單,需要在表示成複雜一點的函數...
前幾天有提過的線性回歸是用來預測一個連續的值,而今天要學的邏輯回歸則是用來做分類用的 線性回歸 V.S. 邏輯回歸 線性回歸:找到一條線,讓data盡可...
熬夜沒睡飽好像成為每天必抱怨的事項了,今天畢竟踏上旅途,我們話少一些,直接開始吧! 我們在一開始有簡單說明機器學習的類型今天的內容就是要來仔細說一下關於這些...
前言 昨天了解到了機器學習的各種學習方式,今天就要針對模型的目標來區分出兩種不一樣的問題,一個是回歸問題 ( Regression Problem ),一個是分...
在前幾天的筆記中有介紹過線性回歸(Linear Regression),線性回歸中的因變數與自變數呈現直線關係(線性關係),但實際上直線並不一定能很好的展現因...
今天繼續延伸 VAE 的主題,會分別介紹兩個基於 VAE 改良的變形:β-VAE 和 DFC-VAE。這兩種變形改良的方向和帶來的效果都不太一樣,讓我們繼續看下...
前兩天介紹了線性回歸和幾種正規化方法的概念,今天來講要如何使用python實作,以及幾種常用參數介紹 環境建置 在開始之前先講一下我所使用的環境! Ana...