昨天睡太少,睡眠債讓我早上直接睡爛,最後被遊戲體力沒清這件事給嚇醒了。也快到假日了,但鐵人賽內容說不定會變少,主要是星期日有 NCPC ,筆者為了學分有報名,而...
在前幾天的筆記中有介紹過線性回歸(Linear Regression),線性回歸中的因變數與自變數呈現直線關係(線性關係),但實際上直線並不一定能很好的展現因...
NCPC 小炮灰,謝謝你簽到題,至少不是 0。 線性迴歸( Linear Regression ) 用於預測未知資料的值找多個自變數( independent...
將所有樣本中相近得樣本點組成一個群組,一層一層往上堆疊,直至所有的樣本皆被分成一個群組為止 Hierarchical Clustering 透過將最接近的...
深度學習 是機器學習的一個分支,通過多層神經網絡來模擬和學習複雜的資料 神經網絡( Neural Network ) 深度學習的核心是神經網絡,這是由多個神經元...
再續昨天!今天的筆記把論文剩餘的部分整理完 Hard negative mining 難例挖掘 由於存在大量的負樣本,所以導致嚴重的類別不平衡問題,訓練時...
CNN的概念圖如下: ( 圖片來源:https://reurl.cc/l7g1LY ) Convolution Layer 卷積層 卷積的主要概念就是特徵擷...
SVM (Support Vector Machine) 若資料為非線性,將資料映射到高維空間中(用kernel function) 找一超平面將資料分開,...
可以用來降維(dimension reduction),利用原有的特徵組合成新的特徵組,以達到降維的目的,同時保留住資料中的重要資訊 基本上它的目標就是將...
點與點之間的距離 K-NN依照點與點之間的距離來計算點之間的相似性 通常使用的距離度量是歐氏距離(Euclidean Distance),但根據實際情況,也可...
接續作天,今天講訓練相關策略及方法 training Matching strategy 匹配策略 利用jaccard overlap使ground tr...
層次聚類( Hierarchical Clustering ) 將資料集中的資料點分為不同群集的方法,群集之間形成一種層次結構,代表可以查看不同層次的群集結構,...
利用弱分類器(決策樹)迭代訓練或得強分類器,其具有訓練效果好、不易過擬合等優點。 LightGBM V.S. XGBoost 圖源: https://re...
Session Object Cookie/Session的區別:Cookie 是透過客戶端紀錄訊息確定使用者身份Session 是透過在伺服器端紀錄訊息確定使...
Layout @RenderPage()可以使用這個方法匯入要導入的內容,以讓我們不用每次都要寫一樣的內容而這一個方法最常見的例子就是在頁首及頁尾只要更新一次,...
神經元與神經網路 細胞核細胞核控制神經元的基本生命過程在類神經網路中,類似的功能由模型的參數(權重和偏差)控制,參數會通過訓練過程來調整 軸突( Axon...
使用多種學習算法來獲得比單獨使用任何單獨的學習算法更好的預測效果 集成學習 通過建立幾個模型組合來解決單一預測問題 所用來組合的多個模型之間要有差異...
總的來說就是物以類聚 K-means Clustering 將數據集中的數據點分成不同群組,以便相似的數據點彼此靠近 選擇K值: 決定要將資料分成...
是一種決策樹 決策樹 根據特徵進行分割(同子集內盡量相似) 重複分割直到達到設定的深度 建構決策樹 對決策樹進行遍歷,得出結果 CART流程 所有的樹...
昨天八點多睡,今天今神飽滿,終於筆者的每日日記回來了在這裡寫日記也不太對就是了,今天的標題有私心,這是一部我蠻喜歡的音樂劇,大家應該也看過,有被改編成電影(魔法...
為強學習機融合方法 stacking 第一層為level 0,第二層為level 1 第一層可包含多個學習機,第二層只能有一個 第一層的學習機被稱為...
原理 組合多個弱學習機來構建一個強學習機 將每個樣本的權重初始化為相等的值 建構弱分類器 將誤差大的資料權重加大 重複2跟3 加權投票決定結果 建構弱...
Cookies 當同一台電腦透過瀏覽器請求頁面時,將會發送 cookie。 在ASP中,我們可以透過Response.Cookies這個方法創建Cookies...
前幾天的迴歸模型中,我們希望找到一個函數能最好的表達因變數與自變數之間的關係,而尋找這個函數的方法就是定義損失函數(loss function)或稱成本函數(...
k-平均演算法(K-Means Clustering) 步驟 初始化: 從資料集中隨機選擇K個資料點作為初始群集中心,中心可以是資料集中的實際資料點或隨機生...