• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 问答库 问答库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

神经网络拟合函数表达式,神经网络拟合函数matlab

武飞扬头像
aifans_bert
帮助2

学新通

1、matlab中如何用神经网络求得数据拟合函数?

我是做这个方向的,神经网络拟合出的曲线是没有相应的函数的,他是根据许多的权重值,阀值和偏置值的训练确定的曲线。还有什么相关问题可以问我,我的QQ378257104。

谷歌人工智能写作项目:小发猫

学新通

2、用MATLAB神经网络进行函数拟合后,拟合的函数表达式有吗?

神经网络一般是没有表达式的哈,但是只要你的参数每次都给的一样,在多次运行后它的多次结果会有一定的相似,这就是我们可以用它做拟合后的预测的原理,因为神经网络一般每次初始值都是随机值,所以结果也会有区别的参考:一个技术宅的学习笔记。在表达拟合函数的时候,我们只要要列出它的参数取值及拟合模型即可,例如BP中的losig模型,隐层神经元个数,下降速率采用的方法traindx,学习速率0.05,训练最小误差0.001等等。

3、matlab 2013 BP神经网络 拟合函数

Warning: PREMNMX is an obsolete function.

Warning: NEWFF used in an obsolete way.

PREMNMX和NEWFF在高版本中,这两个函数已经被取代或者调用格式发生了变化。

另外,相同的设置,每次运行的结果也会不同。

这是我用工具箱大概做出的结果。

4、训练BP神经网络对函数进行拟合

  1. 去掉这一句:[Pn]=tramnmx(P,minp,maxp)  你这一句不开玩笑吗?

  2. ??? Error using ==> network.subsasgn>network_subsasgn at 535
    "layers{1}.transferFcn" cannot be set to non-existing function "tasing'purelin".

    这一错误是因为,你漏掉了逗号,而且tansig拼错了,应该是{'tansig','purelin'}

我直接帮你把代码全部改好吧,复制到m文件或命令窗口运行即可:

clc,clear;
P=-pi/2 0.1:pi/10:pi/2-0.1;
T=tan(P);
plot(P,T,'-*');
[Pn,pps]=mapminmax(P,0,1);   %p归一化
[Tn,tps]=mapminmax(T,0,1);   %t归一化
net=newff(minmax(Pn),[5 1],{'tansig','purelin'},'trainlm');
net.trainParam.show=10;
net.trainParam.lr=0.05;
net.trainParam.epochs=500;
net.trainParam.goal=0.01;
[net,tr]=train(net,Pn,Tn);
r=sim(net,Pn);
r=mapminmax('reverse',r,tps); %反归一化
plot(P,r,'-ro',P,T,'-b*');

5、bp神经网络为什么可以拟合任意非线性函数

样本变量不需要那么多,因为神经网络的信息存储能力有限,过多的样本会造成一些有用的信息被丢弃。如果样本数量过多,应增加隐层节点数或隐层数目,才能增强学习能力。一、隐层数一般认为,增加隐层数可以降低网络误差(也有文献认为不一定能有效降低),提高精度,但也使网络复杂化,从而增加了网络的训练时间和出现“过拟合”的倾向。一般来讲应设计神经网络应优先考虑3层网络(即有1个隐层)。一般地,靠增加隐层节点数来获得较低的误差,其训练效果要比增加隐层数更容易实现。对于没有隐层的神经网络模型,实际上就是一个线性或非线性(取决于输出层采用线性或非线性转换函数型式)回归模型。因此,一般认为,应将不含隐层的网络模型归入回归分析中,技术已很成熟,没有必要在神经网络理论中再讨论之。二、隐层节点数在BP 网络中,隐层节点数的选择非常重要,它不仅对建立的神经网络模型的性能影响很大,而且是训练时出现“过拟合”的直接原因,但是目前理论上还没有一种科学的和普遍的确定方法。 目前多数文献中提出的确定隐层节点数的计算公式都是针对训练样本任意多的情况,而且多数是针对最不利的情况,一般工程实践中很难满足,不宜采用。事实上,各种计算公式得到的隐层节点数有时相差几倍甚至上百倍。为尽可能避免训练时出现“过拟合”现象,保证足够高的网络性能和泛化能力,确定隐层节点数的最基本原则是:在满足精度要求的前提下取尽可能紧凑的结构,即取尽可能少的隐层节点数。研究表明,隐层节点数不仅与输入/输出层的节点数有关,更与需解决的问题的复杂程度和转换函数的型式以及样本数据的特性等因素有关。

6、通过哪些参数看神经网络拟合出来的函数效果?神经网络拟合时如何确定隐藏的节点数? 10

主要看均方误差和其百分比(准确率)。假如你拟合出来是ui,计算(yi-ui)^2的平均值,然后计算这个平均值与yi平均值的比(也就是均方误差百分比),当然用1减去这个百分比就是准确率了。一般也会画一幅图,把yi和ui分别用不同的颜色或者符号表示出来,直观对比。
拟合时的隐含层节点数目前没有一个通行的公式进行确定,只能凭借经验和试凑。一般情况下,问题的复杂程度(非线性程度和维度)越高,隐含层节点数越多。这里介绍一个小经验:先用不太大的节点数进行预测,如果增加节点数测试集准确率和训练集准确率都有所提升,则应该继续增加。如果增加节点数测试集准确率增加很不明显,而训练集准确率还是有所提升,则不应该继续增加,当前的就是很理想的,继续增加节点数只会起到反效果。

7、用MATLAB神经网络进行函数拟合后,拟合的函数表达式有吗?

既然是函数拟合,那么事先就已经有函数表达式了。拟合的只是函数表达式中未知的参数。
用神经网络对函数进行拟合,输出的就是未知参数的高精近似值。

8、两组数据,用神经网络拟合,训练后,怎么通过这些参数得到函数关系式呀?谢谢

这个是做不到的。神经网络的非线性函数拟合是指非线性映射,并非对具体数学表达式进行求解。这也是神经网络的特点,即不需要精确的数学表达式,即可实现许多功能。非线性关系是自然界的普遍特性。大脑的智慧就是一种非线性现象。人工神经元处于激活或抑制二种不同的状态,这种行为在数学上表现为一种非线性关系。具有阈值的神经元构成的网络具有更好的性能,可以提高容错性和存储容量。

9、神经网络拟合可以得到多项式参数吗?

这个是做不到的。神经网络的非线性函数拟合是指非线性映射,并非对具体数学表达式进行求解。这也是神经网络的特点,即不需要精确的数学表达式,即可实现许多功能。
非线性关系是自然界的普遍特性。大脑的智慧就是一种非线性现象。人工神经元处于激活或抑制二种不同的状态,这种行为在数学上表现为一种非线性关系。具有阈值的神经元构成的网络具有更好的性能,可以提高容错性和存储容量。

这篇好文章是转载于:学新通技术网

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 学新通技术网
  • 本文地址: /boutique/detail/tanhiahfcg
系列文章
更多 icon
同类精品
更多 icon
继续加载