文章来源于网络收集而来,版权归原创者所有,如有侵权请及时联系!
A.7 模式
我们使用deltas值(如Δx),将deltas值越变越小时,观察发生的事情,计算导数,而乐在其中的是我们可以直接计算导数而无需进行所有这些工作。
看看计算得到的导数,是否能够观察到任何模式:
可以看到,t的函数的导数,除了t的幂减少了1,其余是相同的。因此t4 变为了t3 ,t7 成为t6 ,以此类推。这相当容易!t就是t1 ,因此,t的导数为t0 即为1。
由于常数,如3,4,5(常数变量,我们可能称之为a,b,c),都没有变化率,因此常数就简单地消失了。这就是称它们为常量的原因。
但是,等等,请注意,t2 成为2t而不是t,t3 成为3t2 不是t2 。这里还有一步,在幂指数减小之前,幂指数被用作了乘数。因此,在2t5 的幂指数减1之前,幂指数5要作为乘数,从而5 × 2t4 = 10t4 。
下面总结了在进行微积分运算时,使用的这种幂规则。
让我们在更多的例子中尝试,实践这一新技术。
因此,这条规则允许进行大量的微分运算,对于大多数用途而言,这就是我们所需的微分。这条规则只适用于多项式,也就是使用各种变量的幂次方组成的表达式,如y = ax 3 + bx 2 + cx + d,但是不包括sinx 或cosx 这样的式子。由于使用幂规则进行微积分运算有着大量的用途,因此这不算是一个很大的缺陷。
然而,对于神经网络而言,我们确实需要一个额外的工具,我们将在下一节中讨论这个工具。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论