使用toruch.nn搭建最的神经网络骨架
依旧惯例,分析官方文档:
https://pytorch.org/docs/stable/nn.html#containers
这里主要分析Container类。
可以看到Module类是所有神经网络模块的父类,因此,本文主要研究Module的用法。
当我们需要创建一个神经网络模型时,我们需要继承torch.nn.Module类。并通过构造函数调用父类的构造函数。父类的构造函数设置了训练的flag值为True。
其中CONV2D是一个二维的卷积算法,主要应用于图像操作。对于CONV2D算法,这里分享一篇博客,讲的很详细:javascript:void(0)
而forwards中使用到的CONV1D则是一维的卷积操作。对于rule函数,其官方描述为:
————图片引用自知乎。
一般来说,一维卷积 nn.Conv1d 用于文本数据,只对宽度进行卷积,对高度不卷积。
Conv1d仅对数据的height或者weight进行处理,我个人理解为,Conv1D处理的是线性数据,也就是tensor张量场中的低纬度数据。而对于RELU函数,则意味着非线性的变换。
relu函数的作用就是增加了神经网络各层之间的非线性关系,否则,如果没有激活函数,层与层之间是简单的线性关系,每层都相当于矩阵相乘,这样怎么能够完成我们需要神经网络完成的复杂任务。
这是一个非线性变换。
当函数的操作和变换不是非线性的,那么才有了智能化的可能性,否则程序的执行过程都是按照系统规定的执行,没有非线性的变化。
神经网络相当于一个处理模块, 将输入数据通过卷积和非线性变换得到了一个输出,作为智能处理的结果。
官方演示文档中给出的forwards函数的作用说明了本神经网络的功能为进行一次1维的卷积后再进行非线性变换,并重复一次该操作。
这里做一个简单的神经网络骨架
from torch import nn
import torch
class network(nn.Module):
def __init__(self):
super().__init__()
def forward(self,input):
output = input 1
return output
net = network()
x = torch.tensor(1.0)
output = net(x)
print(output)
其中init方法中调用了父类的构造方法,forwards方法则是做了一个对input数据进行一次 1的操作,这里的操作是线性的变换,但他依然是一个神经网络的骨架。
这篇好文章是转载于:学新通技术网
- 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
- 本站站名: 学新通技术网
- 本文地址: /boutique/detail/tanhiajbkk
-
微信小程序没声音怎么办
PHP中文网 06-15 -
excel图片置于文字下方的方法
PHP中文网 06-27 -
怎样阻止微信小程序自动打开
PHP中文网 06-13 -
微信人名旁边有个图标有什么用
PHP中文网 03-11 -
微信提示登录环境异常是什么意思原因
PHP中文网 04-09 -
微信获取用户openid失败怎么办
PHP中文网 03-26 -
photoshop怎么把印章抠出并放在另一张图上
PHP中文网 06-15 -
EhViewer(E绅士)最新版_ehviewer白色版彩色版_Ehviewer显示网络错误怎么办?e站进不去了怎么办
Evanpatchouli 09-19 -
Excel筛选和排序是灰色的怎么办
PHP中文网 06-22 -
photoshop蒙版画笔没反应怎么办
PHP中文网 06-24