使用docker-image-tool创建的火花符图像与docker Hub中的图像有什么区别
Spark在Docker Hub中发布Spark-Py Docker图像
https://hhub.docker。 com/r/apache/spark-py/tags
但是,在kubernetes文档上运行时,他们说您需要使用Docker Image Tool
https://spark.apache.org/docs/latest/rnunning-onnunning-on-kubernetes.html
./bin/docker-image-tool.sh -r <repo> -t my-tag -p ./kubernetes/dockerfiles/spark/bindings/python/Dockerfile build
与与有区别Docker Image Tool(假设使用干净的安装)和Docker Hub中的Docker Image?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
我也有同样的问题,我做了一些研究。
以下是 kubernetes/dockerfiles/spark/bindings/python/dockerfile 截至今天(3/20/2023):
base_img
指向:Below is a copy of current
我注意到的第一件事是,自定义版本使用Java 17,而此官方Docker映像使用Java 11。
可能存在更多差异。如果您发现更多,请随时添加更多!
通常,自定义版本可以为我们提供更多的自由,例如,我们还可以删除
复制示例/opt/spark/xpless
如果不需要。I had same question and I did some research.
Below is a copy of kubernetes/dockerfiles/spark/bindings/python/Dockerfile as of today (3/20/2023):
The
base_img
points to kubernetes/docker/src/main/dockerfiles/spark/Dockerfile:Below is a copy of current apache/spark-py:latest image layers as of today (3/20/2023).
First thing I notice is that the customized version is using Java 17 while this official docker image is using Java 11.
There may be more differences. Feel free to add more if you found more!
In general, the customized version can give us more freedom, for example, we can also remove
COPY examples /opt/spark/examples
if not need.