• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 问答库 问答库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

使用toruch.nn搭建最的神经网络骨架

武飞扬头像
程序小黑
帮助1

依旧惯例,分析官方文档:

https://pytorch.org/docs/stable/nn.html#containers

学新通

这里主要分析Container类。

学新通

可以看到Module类是所有神经网络模块的父类,因此,本文主要研究Module的用法。

学新通

当我们需要创建一个神经网络模型时,我们需要继承torch.nn.Module类。并通过构造函数调用父类的构造函数。父类的构造函数设置了训练的flag值为True。

学新通

其中CONV2D是一个二维的卷积算法,主要应用于图像操作。对于CONV2D算法,这里分享一篇博客,讲的很详细:javascript:void(0)

学新通

而forwards中使用到的CONV1D则是一维的卷积操作。对于rule函数,其官方描述为:

学新通

————图片引用自知乎。

一般来说,一维卷积 nn.Conv1d 用于文本数据,只对宽度进行卷积,对高度不卷积。

Conv1d仅对数据的height或者weight进行处理,我个人理解为,Conv1D处理的是线性数据,也就是tensor张量场中的低纬度数据。而对于RELU函数,则意味着非线性的变换。

relu函数的作用就是增加了神经网络各层之间的非线性关系,否则,如果没有激活函数,层与层之间是简单的线性关系,每层都相当于矩阵相乘,这样怎么能够完成我们需要神经网络完成的复杂任务。

学新通

这是一个非线性变换。

当函数的操作和变换不是非线性的,那么才有了智能化的可能性,否则程序的执行过程都是按照系统规定的执行,没有非线性的变化。

神经网络相当于一个处理模块, 将输入数据通过卷积和非线性变换得到了一个输出,作为智能处理的结果。

官方演示文档中给出的forwards函数的作用说明了本神经网络的功能为进行一次1维的卷积后再进行非线性变换,并重复一次该操作。

这里做一个简单的神经网络骨架

from torch import nn
import torch

class network(nn.Module):
    def __init__(self):
        super().__init__()
    def forward(self,input):
        output = input   1
        return output

net = network()
x = torch.tensor(1.0)

output = net(x)
print(output)

其中init方法中调用了父类的构造方法,forwards方法则是做了一个对input数据进行一次 1的操作,这里的操作是线性的变换,但他依然是一个神经网络的骨架。

这篇好文章是转载于:学新通技术网

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 学新通技术网
  • 本文地址: /boutique/detail/tanhiajbkk
系列文章
更多 icon
同类精品
更多 icon
继续加载