如何使用非常大的数据集训练KERAS模型?

发布于 2025-01-23 10:29:58 字数 179 浏览 0 评论 0原文

我正在尝试使用TensorFlow和Keras训练自动编码器。我的培训数据具有超过200k的512x128未标记的图像。如果我想将数据加载到矩阵中,则其形状将为(200000、512、128、3)。那是几百GB的RAM空间。我知道我可以在训练时降低批处理大小,但这是为了限制GPU/CPU中的内存使用情况。

这个问题有解决方法吗?

I am trying to train an autoencoder using TensorFlow and Keras. My training data has more than 200K 512x128 unlabeled images. If I want to load the data in a matrix, its shape will be (200000, 512, 128, 3). That is a few hundred GB of RAM space. I know I can reduce the batch size while training but that is for limiting memory usage in GPU/CPU.

Is there a workaround to this problem?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

白馒头 2025-01-30 10:29:58

您可以使用tf.data api懒洋洋地加载图像...
中。

  • 在教程下面的详细信息 图像

还请查看tf.data.dataset.prefetch,tf.data.dataset.batch和tf.data.dataset.cache方法以优化性能。

您也可以将数据预先访问到TfreCords中,以便在训练管道中阅读它们之前更有效地阅读它们...

You can use the tf.data API for lazily loading the images...
Below tutorial goes into the details..

Also look into tf.data.Dataset.prefetch, tf.data.Dataset.batch and tf.data.Dataset.cache methods to optimize performance..

You can also preprocess the data into TFRecords for reading them more efficiently before reading them in your training pipeline...

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文