使用tf.train.batch 进行增量训练,为啥使用同样的数据和模型及参数得到的效果越来越差?

发布于 2022-09-06 10:03:40 字数 231 浏览 10 评论 0

在已经训练好的模型的基础上做增量训练,用的batch train, 想要看下训练的模型效果,我用同样的数据,理论上讲,同样的数据,同样的模型和参数,得到的效果应该一样--第一次训练的acc已经接近1,再用同样的数据增量训练,acc应该也是接近, 但实际上效果越来越差,acc只有0.8, 如果再增量第二次第三次, acc越来越小。  
但是如果不用batch train, 直接读到内存里,acc就是1,可是数据量较大时,这种方法就不适用了。

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

蓝戈者 2022-09-13 10:03:40

两种可能,一种可能是TF的计算问题,TF计算Accuracy是按batch算,有可能你batch train最后一个batch刚好错误多
另一种可能是全部数据载入是直接求全局最优解,二batch train是在batch上做优化,容易陷入局部最优出不来,没非batch效果好。

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文