企業(yè)推廣網站百度免費推廣平臺
一、分類任務
?構建分類網絡模型
- 必須繼承nn.Module且在其構造函數中需調用nn.Module的構造函數
- 無需寫反向傳播函數,nn.Module能夠利用autograd自動實現反向傳播
- Module中的可學習參數可以通過named_parameters()返回迭代器
from torch import nn
import torch.nn.functional as F# 構建自己的網絡
class Mnist_NN(nn.Module):def __init__(self):super().__init__()self.hidden1 = nn.Linear(784,128)self.hidden2 = nn.Linear(128,256)self.out = nn.Linear(25,10)# 前向傳播def forward(self,x):x = F.relu(self.hidden1(x))x = F.relu(self.hidden2(x))x = self.out(x)return xnet = Mnist_NN()
print(net)# 打印定義好的名字里的權重和偏置項
for name,parameter in net.named_parameters():print(name,parameter,parameter.size())
二、Dataset與DataLoader
from torch.utils.data import TensorDataset
from torch.utils.data import DataLoader
from torch import optimtrain_ds = TensorDataset(x_train,y_train)
train_dl = DataLoader(train_ds,batch_size=bs,shuffle=True)valid_ds = TensorDataset(x_valid,y_valid)
valid_dl = DataLoader(valid_ds,batch_size=bs * 2)def get_data(train_ds,valid_ds):return (DataLoader(train_ds,batch_size=bs,shuffle=True),DataLoader(valid_ds,batch_size=bs * 2),)def get_model():model = Mnist_NN()return model,optim.SGD(model.parameters(),lr = 0.01)
train_dl,valid_dl = get_data(train_ds,valid_ds)
model,opt = get_model()
三、卷積神經網絡
3.1卷積網絡應用
- 檢測任務
- 分類與檢索
- 超分辨率重構
- 無人駕駛
- 人臉識別
3.2卷積網絡與傳統網絡的區(qū)別
左:傳統神經網絡
右:卷積神經網絡
整體架構:
輸入層:數據輸入
卷積層:提取特征
池化層:壓縮特征
全連接層:通過一組權重參數,將輸入層與隱層連接起來
?卷積之后得到的值要加上偏置值bias
卷積層涉及參數:
- 滑動窗口步長:窗口移動跳躍的格數
- 卷積核尺寸:例3*3
- 邊緣填充:
- 卷積核個數:
3.3 池化層:
最大池化:
?
3.4卷積網絡的構建
- 一般卷積層,relu層,池化層可以寫成一個套餐
- 注意卷積最后結構還是一個特征圖,需要把圖轉換成向量才能做分類或者回歸任務
案例代碼如下:
class CNN(nn.Module):def __init__(self):super(CNN, self).__init__()self.conv1 = nn.Sequential(nn.Conv2d(in_channels=1, #灰度圖out_channels=16, #要得到多少個特征圖kernel_size=5, #卷積核大小stride=1, #步長padding=2,),nn.ReLU(), #relu層nn.MaxPool2d(kernel_size=2), #進行池化操作)self.conv2 = nn.Sequential(nn.Conv2d(16,32,5,1,2), #輸出(32,14,14)nn.ReLU(),nn.MaxPool2d(2),)self.out = nn.Linear(32 * 7 * 7 * 10) #全連接層得到的結果def forward(self,x):x = self.conv1(x)x = self.conv2(x)x = x.view(x.size(0),-1)output = self.out(x)return output