为什么 ANN 中需要 BIAS?我们应该为每一层设置单独的 BIAS 吗?

发布于 2024-11-30 22:39:47 字数 354 浏览 4 评论 0原文

我想建立一个模型来预测输入信号的未来响应,我的网络架构是 [3, 5, 1]:

  • 3 个输入,
  • 隐藏层 5 个神经元,
  • 输出层 1 个神经元。

我的问题是:

  1. 我们应该为每个隐藏层和输出层设置单独的偏差吗?
  2. 我们是否应该在每一层为 BIAS 分配权重(因为 BIAS 会对我们的网络产生额外的价值并导致网络负担过重)?
  3. 为什么 BIAS 总是设置为 1?如果eta有不同的值,为什么我们不将BIAS设置为不同的值?
  4. 为什么我们总是对非线性函数使用 log sigmoid 函数,我们可以使用 tanh 吗?

I want to make a model which predicts the future response of the input signal, the architecture of my network is [3, 5, 1]:

  • 3 inputs,
  • 5 neurons in the hidden layer, and
  • 1 neuron in output layer.

My questions are:

  1. Should we have separate BIAS for each hidden and output layer?
  2. Should we assign weight to BIAS at each layer (as BIAS becomes extra value to our network and cause the over burden the network)?
  3. Why BIAS is always set to one? If eta has different values, why we don't set the BIAS with different values?
  4. Why we always use log sigmoid function for non linear functions, can we use tanh ?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

十雾 2024-12-07 22:39:47

因此,我认为如果我们退后一步讨论偏差单元在神经网络中扮演的角色,大部分问题都会弄清楚。

偏置单元旨在允许网络中的单元学习适当的阈值(即在达到某个总输入后,开始发送正激活),因为通常正总输入意味着正激活。

例如,如果您的偏置单元对某些神经元 x 的权重为 -2,那么如果所有其他输入加起来大于 -2,神经元 x 将提供正激活。

因此,以此为背景,您的答案是:

  1. 不,一个偏置输入总是足够的,因为它可以根据每个单元的权重对不同的神经元产生不同的影响。
  2. 一般来说,对每个非输入单元设置偏置权重是一个好主意,因为否则那些没有偏置权重的单元的阈值将始终为零。
  3. 由于阈值,一旦学习应该在各个试验中保持一致。请记住,偏差代表每个单元如何与输入交互;它本身不是输入。
  4. 你当然可以,而且很多人都可以。任何挤压函数通常都充当激活函数。

So, I think it'd clear most of this up if we were to step back and discuss the role the bias unit is meant to play in a NN.

A bias unit is meant to allow units in your net to learn an appropriate threshold (i.e. after reaching a certain total input, start sending positive activation), since normally a positive total input means a positive activation.

For example if your bias unit has a weight of -2 with some neuron x, then neuron x will provide a positive activation if all other input adds up to be greater then -2.

So, with that as background, your answers:

  1. No, one bias input is always sufficient, since it can affect different neurons differently depending on its weight with each unit.
  2. Generally speaking, having bias weights going to every non-input unit is a good idea, since otherwise those units without bias weights would have thresholds that will always be zero.
  3. Since the threshold, once learned should be consistent across trials. Remember the bias represented how each unit interacts with the input; it isn't an input itself.
  4. You certainly can and many do. Any sqaushing function generally works as an activation function.
~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文