返回介绍

A.7 模式

发布于 2024-01-27 20:58:55 字数 1402 浏览 0 评论 0 收藏 0

我们使用deltas值(如Δx),将deltas值越变越小时,观察发生的事情,计算导数,而乐在其中的是我们可以直接计算导数而无需进行所有这些工作。

看看计算得到的导数,是否能够观察到任何模式:

可以看到,t的函数的导数,除了t的幂减少了1,其余是相同的。因此t4 变为了t3 ,t7 成为t6 ,以此类推。这相当容易!t就是t1 ,因此,t的导数为t0 即为1。

由于常数,如3,4,5(常数变量,我们可能称之为a,b,c),都没有变化率,因此常数就简单地消失了。这就是称它们为常量的原因。

但是,等等,请注意,t2 成为2t而不是t,t3 成为3t2 不是t2 。这里还有一步,在幂指数减小之前,幂指数被用作了乘数。因此,在2t5 的幂指数减1之前,幂指数5要作为乘数,从而5 × 2t4 = 10t4

下面总结了在进行微积分运算时,使用的这种幂规则。

让我们在更多的例子中尝试,实践这一新技术。

因此,这条规则允许进行大量的微分运算,对于大多数用途而言,这就是我们所需的微分。这条规则只适用于多项式,也就是使用各种变量的幂次方组成的表达式,如y = ax 3 + bx 2 + cx + d,但是不包括sinx 或cosx 这样的式子。由于使用幂规则进行微积分运算有着大量的用途,因此这不算是一个很大的缺陷。

然而,对于神经网络而言,我们确实需要一个额外的工具,我们将在下一节中讨论这个工具。

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文