Www.521cbb

Stockbrazilonline.com Szh Kenyan Personal You 人工神经网络 - 维基百科,自由的百科全书

Stockbrazilonline.com Szh Kenyan Personal You

(Reinforcement Network)

searchsearch Personal Personal Kenyan [ Stockbrazilonline.com Szh Personal ]

计算能力[编辑]

多层感知器(MLP)是一个通用的函数逼近器,由Cybenko定理证明。然而,证明不是由所要求的神经元数量或权重来推断的。 Hava Siegelmann和Eduardo D. Sontag的工作证明了,一个具有有理数权重值的特定递归结构(与全精度实数权重值相对应)相当于一个具有有限数量的神经元和标准的线性关系的通用图灵机。[3] 他们进一步表明,使用无理数权重值会产生一个超图灵机。

容量[编辑]

人工神经网络模型有一个属性,称为“容量”,这大致相当于他们可以塑造任何函数的能力。它与可以被储存在网络中的信息的数量和复杂性相关。

收敛性[编辑]

没有什么通常意义上的收敛,因为它取决于一些因素。首先,函数可能存在许多局部极小值。这取决于成本函数和模型。其次,使用优化方法在远离局部最小值时可能无法保证收敛。第三,对大量的数据或参数,一些方法变得不切实际。在一般情况下,我们发现,理论保证的收敛不能成为实际应用的一个可靠的指南。

综合统计[编辑]

在目标是创建一个普遍系统的应用程序中,过度训练的问题出现了。这出现在回旋或过度具体的系统中当网络的容量大大超过所需的自由参数。为了避免这个问题,有两个方向:第一个是使用交叉验证和类似的技术来检查过度训练的存在和选择最佳参数如最小化泛化误差。二是使用某种形式的正规化。这是一个在概率化(贝叶斯)框架里出现的概念,其中的正则化可以通过为简单模型选择一个较大的先验概率模型进行;而且在统计学习理论中,其目的是最大限度地减少了两个数量:“风险”和“结构风险”,相当于误差在训练集和由于过度拟合造成的预测误差。

参见[编辑]

外部連結[编辑]

参考文献[编辑]

  1. ^ Zeidenberg, Matthew. Neural Networks in Artificial Intelligence. 1990: Ellis Horwood Limited. 1990. ISBN 0-13-612185-3. 
  2. ^ Hagan, Martin. Neural Network Design. PWS Publishing Company. 1996. ISBN 7-111-10841-8. 
  3. ^ Siegelmann, H.T.; Sontag, E.D. Turing computability with neural nets. Appl. Math. Lett. 1991, 4 (6): 77–80. doi:10.1016/0893-9659(91)90080-F. 
取自“w/index.php?title=人工神经网络&oldid=31823922
分类
隐藏分类:

导航菜单

jStockbrazilonline.com Szh Kenyan Personal You 人工神经网络 - 维基百科,自由的百科全书x n Girls gStockbrazilonline.com Szh Kenyan Personal You 人工神经网络 - 维基百科,自由的百科全书o Www.youjizzcom