如題。
疑惑源自 BatchNormalize 層的添加,在 torchvision.models 的 vgg.py 中,如果使用vgg16_bn,則會導致每一個 Convolution 層后都添加 bn 層,但是實際上我只想在網絡中的某幾個捲積層后添加。
一開始嘗試通過自己來寫VGG解決這個問題,但是在load_state_dict的時候又有問題,自己寫的網絡與 pretrain 參數的 frame 有差異,所以無法 load。
所以求助,如何在可以導入pretrain 權重參數的情況下,在 VGG 網絡結構中進行修改,如添加 bn, attention 等結構?