1
头图

PyTorch 是一个在研究领域广泛使用的深度学习框架,提供了大量的灵活性和效率。本文将向你介绍如何使用 PyTorch 构建你的第一个神经网络。

一、安装 PyTorch

首先,我们需要安装 PyTorch。PyTorch 的安装过程很简单,你可以根据你的环境(操作系统,Python 版本,是否使用 GPU 等)在 PyTorch 的官方网站生成相应的安装命令。以下是一种常见的安装命令:

pip install torch torchvision

二、Tensor

在 PyTorch 中,基本的数据结构是 Tensor(张量)。Tensor 和 NumPy 的数组很相似,但它还可以在 GPU 上运行以加速计算。以下是创建 Tensor 的一些方法:

import torch

# 创建一个未初始化的 5x3 矩阵
x = torch.empty(5, 3)
print(x)

# 创建一个随机初始化的 5x3 矩阵
x = torch.rand(5, 3)
print(x)

# 创建一个全部为 0,数据类型为 long 的矩阵
x = torch.zeros(5, 3, dtype=torch.long)
print(x)

# 创建 tensor 并直接使用数据初始化
x = torch.tensor([5.5, 3])
print(x)

三、神经网络

在 PyTorch 中,我们使用 torch.nn 包来构建神经网络。nn 依赖于 autograd 来定义和计算梯度。nn.Module 包含神经网络的层,以及返回 outputforward(input) 方法。

让我们定义一个简单的前馈神经网络:

import torch.nn as nn
import torch.nn.functional as F

class Net(nn.Module):

    def __init__(self):
        super(Net, self).__init__()
        # 输入图像为单通道,输出通道为 6,3x3 正方形卷积核
        self.conv1 = nn.Conv2d(1, 6, 3)
        self.conv2 = nn.Conv2d(6, 16, 3)
        # an affine operation: y = Wx + b
        self.fc1 = nn.Linear(16 * 6 * 6, 120)  # 6*6 是图像维度
        self.fc2 = nn.Linear(120, 84)
        self.fc3 = nn.Linear(84, 10)

    def forward(self, x):
        # 在 2x2 窗口上进行最大池化
        x = F.max_pool2d(F.relu(self.conv1(x)), (2, 2))
        # 如果是方阵,只需要指定一个数字
        x = F.max_pool2d(F.relu(self.conv2(x)), 2)
        x = x.view(-1, self.num_flat_features(x))
        x = F.relu(self.fc1(x))
        x = F.relu(self.fc2(x))
        x = self.fc3(x)
        return x

    def num_flat_features(self, x):
        size = x.size()[1:]  # 所有维度除了批量维度
        num_features = 1
        for s in size:
            num_features *= s
        return num_features

net = Net()
print(net)

你刚刚定义了一个前馈函数,在它里面(以及只在它里面)我们使用了 Tensor 的任意操作。backward 函数(在这里是 autograd)将会自动定义,你可以在 forward 函数中使用任何针对 Tensor 的操作。

通过以上的简单介绍,我们相信你已经对如何在 PyTorch 中构建神经网络有了一个基本的理解。在后续的文章中,我们将深入讨论如何训练神经网络,以及如何使用数据加载器,等等。


小小张说故事
9 声望3 粉丝