vertex ai工作台用户管理的笔记本用拥抱面数据集崩溃
我试图在顶点AI工作台的用户管理笔记本中加载 huggingface 数据集。我尝试了内存优化的机器,例如M1-Ultramem-160
和m1-megamem-96
。我选择了SDD引导/磁盘空间的其他 2000 GB 。
数据集在Jupyterlab崩溃之前下载约60%。
例如,这崩溃了内核:
! PIP安装数据集
pile_dataset = load_dataset('the_pile', 'all', split = 'train')
我不确定是否需要执行任何特定的事情来增加分配给jupyterlab实例的可用内存。
任何帮助将不胜感激。
谢谢。
I am attempting to load a Huggingface dataset in a User-managed notebook in the Vertex AI workbench. I have tried memory-optimized machines such as m1-ultramem-160
and m1-megamem-96
. I selected an additional 2000 GB of SDD boot/disk space.
The dataset downloads about 60% of the way before JupyterLab crashes.
For example, this crashes the kernel:
! pip install datasets
pile_dataset = load_dataset('the_pile', 'all', split = 'train')
I am unsure if I need to do anything specific to increase the available memory allocated to the JupyterLab instance.
Any help would be greatly appreciated.
Thank you.
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论