attention-model

attention-model

文章 0 浏览 0

输入 0 与层 Repeat_vector_40 不兼容:预期 ndim=2,发现 ndim=1

我正在开发用于异常检测的 LSTM 自动编码器模型。我的 keras 模型设置如下: from keras.models import Sequential from keras import Model, layers …

玩套路吗 2025-01-13 00:23:33 0 0

多头注意力中的多个头实际上会导致更多的参数或不同的输出吗?

我正在尝试理解变形金刚。虽然我理解编码器-解码器结构的概念以及自我注意背后的想法,但我所坚持的是“多头注意层”的“多头部分”。 看看这个解释 h…

时光沙漏 2025-01-12 14:23:25 1 0
更多

推荐作者

5397313

文章 0 评论 0

烟沫凡尘

文章 0 评论 0

一个破名字

文章 0 评论 0

萌︼了一个春

文章 0 评论 0

当爱已成负担

文章 0 评论 0

    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文