Day4~7 我們將深度學習的流程快速跑過一遍,其中有很多細節省略了,接下來幾天詳細介紹比較重要的元素,若是有我未提及的歡迎在留言區提問。 Tensors 國高...
儲存模型 儲存序列化模型內部狀態和權重,命名為model.pth,程式碼如下: torch.save(model.state_dict(), "mod...
今天介紹的內容與 Day11、Day12 很像,我們需要建立資料集還有 DataLoader,首先我們先引入需要用到的套件,並且定義資料處理的流程: from...
今天介紹如何創建一個 DataLoader,它的用途是在每次模型學習時將要學習的資料搬到模型裡,首先我們先指定存在硬碟中的資料夾路徑: train_path =...
分解Cat vs Ravbbit模型中的各個層次。為了方便講解,我們將取一個大小為224x224的且批次為 10 (10張224*224大小的圖片)的隨機 te...
昨天介紹了 pytorch 的基本單元 tensor,那麼我們要如何應用現實中的資料呢?可以思考一下,我們平常用了哪些器官來認知這個世界呢?有眼睛、耳朵、肌膚等...
Day 17 煉丹爐開始煉丹啦 - 訓練神經網路 介紹整個訓練的流程,但是準確率大概在 75% 左右就到極限了,因此今天加入了卷積神經網路。 定義網路時會寫兩個...
torch.nn 命名空間提供了構建自己的神經網路所需的所有基本組件。在PyTorch中,每個模組都是 nn.Module 的子類別。神經網路本身也是一個模組,...
之前有介紹過,在nn.Linear線性層中,輸入的圖片會攤平成 1D 的向量,並與權重進行矩陣相乘,模型輸出張量的值代表:針對該輸入圖片,求出所有像素的加權總合...
在圖像處理中,可以對圖像進行降採樣以減少像素數量,從而減少圖像的大小,而仍然保留足夠的細節以進行分析或顯示,平均池化(average pooling)和最大池化...
今天嘗試自己建立模型,並且用昨天創建好的資料來訓練,首先引入需要用到的模組: from torch import nn import torch 辨識要使用的...
在訓練神經網絡時,最常用的算法是反向傳播(back propagation)。在這個算法中,根據損失函數對給定參數的梯度,調整參數(模型權重)。 為了計算這些梯...
今天先介紹怎麼把模型存下來,神經網路在訓練的時候所有權重都是存在記憶體中的,只要程式或電腦關掉這些資料就會消失,因此我們必須將這些訓練好的資訊存到硬碟中。 Py...
現在我們有了一個模型和數據,是時候通過優化模型的參數來訓練、驗證和測試我們的模型了。訓練模型是一個迭代的過程;在每一次迭代中,模型對輸出進行猜測,計算其猜測的錯...
準備好資料集後(Day10),接下來我們要使用 torchvision 中的 datasets 建立資料集,首先要匯入相關套件: from torchvisio...
本日內容 CMakeLists.txt cmake Module Directory torch Library Platform-Specific...
今天介紹在影像中常見的資料前處理和資料增生(Data augmentation) 資料前處理:如果資料是自己收集的,多少會有一些缺失值、重複數據、異常值等。...
在實際應用中,很少有人從頭開始訓練一個完整的卷積神經網絡(使用隨機初始化),因為擁有足夠大的數據集相對較罕見。相反,通常會在非常大的數據集上(例如ImageN...
前面的部分與之前的程式碼相同,解析 csv 的資訊: import pandas as pd import numpy as np import os from...