使用tf.train.batch 进行增量训练,为啥使用同样的数据和模型及参数得到的效果越来越差?
在已经训练好的模型的基础上做增量训练,用的batch train, 想要看下训练的模型效果,我用同样的数据,理论上讲,同样的数据,同样的模型和参数,得到的效果应该一样--第一次训练的acc已经接近1,再用同样的数据增量训练,acc应该也是接近, 但实际上效果越来越差,acc只有0.8, 如果再增量第二次第三次, acc越来越小。
但是如果不用batch train, 直接读到内存里,acc就是1,可是数据量较大时,这种方法就不适用了。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
两种可能,一种可能是TF的计算问题,TF计算Accuracy是按batch算,有可能你batch train最后一个batch刚好错误多
另一种可能是全部数据载入是直接求全局最优解,二batch train是在batch上做优化,容易陷入局部最优出不来,没非batch效果好。