vertex ai工作台用户管理的笔记本用拥抱面数据集崩溃

发布于 2025-01-30 00:54:46 字数 448 浏览 3 评论 0原文

我试图在顶点AI工作台的用户管理笔记本中加载 huggingface 数据集。我尝试了内存优化的机器,例如M1-Ultramem-160m1-megamem-96。我选择了SDD引导/磁盘空间的其他 2000 GB

数据集在Jupyterlab崩溃之前下载约60%。

例如,这崩溃了内核:

! PIP安装数据集

pile_dataset = load_dataset('the_pile', 'all', split = 'train')

我不确定是否需要执行任何特定的事情来增加分配给jupyterlab实例的可用内存。

任何帮助将不胜感激。

谢谢。

I am attempting to load a Huggingface dataset in a User-managed notebook in the Vertex AI workbench. I have tried memory-optimized machines such as m1-ultramem-160 and m1-megamem-96. I selected an additional 2000 GB of SDD boot/disk space.

The dataset downloads about 60% of the way before JupyterLab crashes.

For example, this crashes the kernel:

! pip install datasets

pile_dataset = load_dataset('the_pile', 'all', split = 'train')

I am unsure if I need to do anything specific to increase the available memory allocated to the JupyterLab instance.

Any help would be greatly appreciated.

Thank you.

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文