为什么 ANN 中需要 BIAS?我们应该为每一层设置单独的 BIAS 吗?
我想建立一个模型来预测输入信号的未来响应,我的网络架构是 [3, 5, 1]:
- 3 个输入,
- 隐藏层 5 个神经元,
- 输出层 1 个神经元。
我的问题是:
- 我们应该为每个隐藏层和输出层设置单独的偏差吗?
- 我们是否应该在每一层为 BIAS 分配权重(因为 BIAS 会对我们的网络产生额外的价值并导致网络负担过重)?
- 为什么 BIAS 总是设置为 1?如果eta有不同的值,为什么我们不将BIAS设置为不同的值?
- 为什么我们总是对非线性函数使用 log sigmoid 函数,我们可以使用 tanh 吗?
I want to make a model which predicts the future response of the input signal, the architecture of my network is [3, 5, 1]:
- 3 inputs,
- 5 neurons in the hidden layer, and
- 1 neuron in output layer.
My questions are:
- Should we have separate BIAS for each hidden and output layer?
- Should we assign weight to BIAS at each layer (as BIAS becomes extra value to our network and cause the over burden the network)?
- Why BIAS is always set to one? If eta has different values, why we don't set the BIAS with different values?
- Why we always use log sigmoid function for non linear functions, can we use tanh ?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
因此,我认为如果我们退后一步讨论偏差单元在神经网络中扮演的角色,大部分问题都会弄清楚。
偏置单元旨在允许网络中的单元学习适当的阈值(即在达到某个总输入后,开始发送正激活),因为通常正总输入意味着正激活。
例如,如果您的偏置单元对某些神经元 x 的权重为 -2,那么如果所有其他输入加起来大于 -2,神经元 x 将提供正激活。
因此,以此为背景,您的答案是:
So, I think it'd clear most of this up if we were to step back and discuss the role the bias unit is meant to play in a NN.
A bias unit is meant to allow units in your net to learn an appropriate threshold (i.e. after reaching a certain total input, start sending positive activation), since normally a positive total input means a positive activation.
For example if your bias unit has a weight of -2 with some neuron x, then neuron x will provide a positive activation if all other input adds up to be greater then -2.
So, with that as background, your answers: