Torch中的神经网络模块包括:
nn.Module:神经网络模块的基类,所有自定义的神经网络模块都应该继承自该类。
nn.Linear:全连接层,将输入和权重矩阵相乘,并添加偏置项。
nn.Conv2d:二维卷积层,对输入数据进行二维卷积操作。
nn.ReLU:ReLU激活函数。
nn.Sigmoid:Sigmoid激活函数。
nn.Dropout:随机失活层,用于防止过拟合。
nn.MaxPool2d:二维最大池化层。
nn.BatchNorm2d:二维批标准化层。
除了上述模块外,Torch还提供了许多其他的神经网络模块,如RNN、LSTM、GRU等循环神经网络模块,以及各种损失函数模块、优化器模块等。这些模块可以方便地用来构建各种类型的神经网络模型。