累計文章數 20,379篇
參賽組數 1087組
團隊組數 052隊
完賽人數 572 人
當本系列文章提到BERT時,最初是指Google所開發的BERT,但後續基本就是指所有運用Transformer和預訓練模式的語言模型。今天這篇文章就是在廣義的...
我們的挑戰終於進行一半啦~前面經過漫長的資料前處理、特徵工程、挑選模型進行訓練後,我們把一個機器學習的模型建立出來了,接著我們要進行測試,也就是把測試檔丟入模型...
前言 走過了資料分析、演算法選擇後,我們得知了有些可以改善模型的方向: 解決資料不平衡(Done) 學習率的設定(Now) 訓練輪數(To do) 模型深度(...
摘要 CNN的來源 淺談CNN架構 CNN的應用 訓練模型方向 內容 CNN的來源 1.1 啟發:動物視覺皮質組織與神經元間連結,到最後辨識物件的過程...
A chain is only as strong as its weakest link. ― Thomas Reid 前言 今天的開頭是一句英文俗諺,它...
偵測人臉位置與人臉關鍵點,兩個混 合 在 一 起 MTCNN -- Multi-task Cascaded Convolutional Networks 從...