Azure Databricks和Python虚拟环境
自2020年以来,Azure Databricks不再支持笔记本之间的虚拟环境,
%conda env export
%conda env update
这将是一个很好的解决方法?我是否只需在每个笔记本电脑中安装所需的库(也许带有需求文件)?
Since 2020 Azure databricks no longer supports moving virtual environments between notebooks with
%conda env export
%conda env update
What would be a good workaround? Do I just install libraries that I need into every notebook (maybe with requirements file)?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
是的。
您可以使用
%PIP install -r/dbfs/requirements.txt
。查看:
https://learn.microsoft.com/en-us/azure/databricks/libraries/notebooks-python-libraries#use-a-requirentess-file-file-file-file-file-to-install-libraries
Yes.
You can use
%pip install -r /dbfs/requirements.txt
.Check out:
https://learn.microsoft.com/en-us/azure/databricks/libraries/notebooks-python-libraries#use-a-requirements-file-to-install-libraries