增加交叉熵损失而不是减少

发布于 2025-01-24 11:14:38 字数 285 浏览 5 评论 0原文

有没有办法翻转横向渗透损失的效果?

我有一个语言模型,我想以不会生成特定文本的方式训练模型。因此,我有两个损失,一个我想减少(loss1),另一个我想增加(loss2):

loss1 = outputs['loss1']
loss2 = 1-outputs['loss2']
loss = loss1 + loss2

我的问题是,减去减去是正确的lose2从1?这样,它会增加而不是减少。

Is there a way to flip the effect of the cross-entropy loss?

I have a language model, and I want to train the model in a way that doesn't generate a specific text. Thus, I have two losses, one that I want to reduce (loss1) and another that I want to increase (loss2):

loss1 = outputs['loss1']
loss2 = 1-outputs['loss2']
loss = loss1 + loss2

My question is, is it correct to subtract loss2 from 1? in this way it increases instead of decreasing.

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文