进一步培训DL模型

发布于 2025-02-13 10:13:08 字数 559 浏览 2 评论 0原文

Colab中的所有数据集训练模型

model.save('model_trained_on_25%_ofmydata.h5')

new_model=load_model('model_trained_on_25%_ofmydata.h5')
new_model.fit(remaining_50%_ofmydata)
new_model.save(remaining_50%_ofmydata)

new_model2=load_model('remaining_50%_ofmydata.h5')
new_model2.fit(remaining_75%_ofmydata)
new_model2.save(remaining_75%_ofmydata)

new_model3=load_model('remaining_75%_ofmydata.h5')
new_model3.fit(remaining_100%_ofmydata)
new_model3.save(remaining_100%_ofmydata)

由于RAM能力,我无法使用 数据,我不想仅在新数据上重新训练,我如何实现该模型不会忘记从以前的培训中学到的知识?

I cannot train my model with all my datasets in colab, because of RAM capability, so i was thinking to do something like:

model.save('model_trained_on_25%_ofmydata.h5')

new_model=load_model('model_trained_on_25%_ofmydata.h5')
new_model.fit(remaining_50%_ofmydata)
new_model.save(remaining_50%_ofmydata)

new_model2=load_model('remaining_50%_ofmydata.h5')
new_model2.fit(remaining_75%_ofmydata)
new_model2.save(remaining_75%_ofmydata)

new_model3=load_model('remaining_75%_ofmydata.h5')
new_model3.fit(remaining_100%_ofmydata)
new_model3.save(remaining_100%_ofmydata)

I have read about catastrophic forgetting, that the model forget what it learns from previous old data, i don't want to retrain only on new data, how i can achieve that the model doesn't forget what it learns from previous trainings ?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文