iT邦幫忙

鐵人檔案

2025 iThome 鐵人賽
回列表
佛心分享-IT 人自學之術

深度學習Tensorflow 2.X 系列

透過一本書籍『深度學習使用TensorFlow 2.X』,來探勘這AI的世界,把完全不會到會一點點的過程做出紀錄。

參賽天數 1 天 | 共 31 篇文章 | 0 人訂閱 訂閱系列文 RSS系列文
DAY 1

MINST手寫數字辨識

MNIST手寫數字資料集是1988年LeCun等人在美國郵務局,為了自動辨識郵遞區號手寫號碼而發展的一個資料集,現今作為許多圖片辨識系統的標準測試集。資料及不同...

2025-09-20 ‧ 由 ad0306122065 分享
DAY 1

使用Keras模組實現神經網路訓練

程式括寫流程如下: 建立模型 透過tf.FradientTape()紀錄並建構向前傳播模型 將訓練資料傳入模型內進行向前傳遞運算 計算損失 根據Loss對mo...

2025-09-21 ‧ 由 ad0306122065 分享
DAY 1

過擬合與欠擬合問題

泛化能力(generalization ablity):一個機器學習算法對於沒有見過的樣本資料也有很好的辨識能力。過擬合(overfitting):機器在訓練表...

2025-09-22 ‧ 由 ad0306122065 分享
DAY 1

數據集劃分

數據切割的目的主要是分出訓練集跟測試集。假如不分割會出現測試集資料在訓練集裡面出現,那不就是照抄答案了嘛!會造成model的準確率不可考。之前就是這樣被教授念過...

2025-09-23 ‧ 由 ad0306122065 分享
DAY 1

提前停止(Early stopping)

過度擬合就是模型在訓練資料上表現得很好,但在沒看過的測試資料上效果卻很差。為甚麼要提前停止? 在模型訓練過程中,我們會同時觀察訓練資料和驗證資料的表現。一開始,...

2025-09-24 ‧ 由 ad0306122065 分享

設定模型層數

在深度學習中,神經網路的「模型層數」指的是模型的深度,也就是由多少層的神經元堆疊而成。設定模型層數沒有一個絕對的標準答案,它需要根據你的資料複雜度和運算資源來權...

2025-09-25 ‧ 由 ad0306122065 分享

使用Dropout

Dropout 是一種在深度學習中廣泛使用的正則化(Regularization)技術,其核心目的是為了解決過擬合(Overfitting)問題。過擬合發生在模...

2025-09-26 ‧ 由 ad0306122065 分享

神經網絡中的正則化:抑制過度擬合的關鍵技術

1. 什麼是正則化?(What is Regularization?) 核心概念:正則化是一種 權重衰減(Weight Decay) 的概念。 主要目的:...

2025-09-27 ‧ 由 ad0306122065 分享

深度學習中的影像資料預處理與資料增強

影像預處理:統一影像尺寸 (Image Resizing)在訓練神經網路時,輸入影像的大小通常需要固定,然而自行收集的資料集中的影像尺寸往往不一。因此,在預處...

2025-09-28 ‧ 由 ad0306122065 分享

卷積神經網路:從全連接網路的局限性談起

在深入探討卷積神經網路 (CNN) 之前,我們先回顧一個用於手寫數字識別的基礎模型:全連接網路。 全連接網路處理 MNIST 資料集在處理 MNIST 資料集...

2025-09-29 ‧ 由 ad0306122065 分享