我认识到,这或许是一个非常特殊的问题,但任何人都有机会与持续的神经网络合作? 我特别关心的是,一个连续的神经网络对你通常使用离散的神经网络有何用处。
为了明确起见,我将澄清我通过持续的神经网络所说的话,因为我可以认为它意味着不同的东西。 我确实是<>而不是,意思是启动功能是连续的。 更 正 我指的是将隐藏层的神经数量增加到一定数量的想法。
So for clarity, here is the architecture of your typical discreet NN:
(source: garamatt at sites.google.com)
<条码>x代码>为投入,g
为隐蔽层的启用,v<>>为隐蔽层的重量,
w
为输出层的重量,b
为偏差,而且显然输出层具有线性(即无)。
The difference between a discrete NN and a continuous NN is depicted by this figure:
(source: garamatt at sites.google.com)
这就是说,让隐藏的神经系统的数量变得有限,以便你的最终产出成为整体。 在实践中,这意味着,你不必计算一个决定性的总额,而是必须估算相应的组成部分。
很显然,它与许多隐藏的神经系统产生过度适应的神经网络存在共同的误解。
具体地说,鉴于这种关于分离和连续的神经网络的定义,我想知道是否有任何人与后者合作,以及他们使用什么东西。
Further description on the topic can be found here: http://www.iro.umontreal.ca/~lisa/seminaires/18-04-2006.pdf