Ambari上面的Spark1.3想要升级到2.0应该怎么做?

发布于 2022-09-04 01:04:44 字数 156 浏览 24 评论 0

Ambari上面的Spark1.3想要升级到2.0应该怎么做?

现在用的是HDP2.3,HADOOP是2.7版本,Spark太老了才是1.3,想升级到2.0。

我已经下载了pre-build版本的spark2.0 但是怎么样才能让系统认到,集成到ambari里面呢?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(4

不交电费瞎发啥光 2022-09-11 01:04:44

楼主你搞定了么? 现在的话应该是升级到最新版的Ambari就可以将2.0了,我没有试过。

鸵鸟症 2022-09-11 01:04:44

需要将ambari升级到最新版本,然后直接在ambari里进行spark的升级操作!

醉南桥 2022-09-11 01:04:44

可以自己手动再安装个新版本,我就是这样的,与原来的1.5版本共存在添加一个2.1

々眼睛长脚气 2022-09-11 01:04:44

需要将 ambari 升级到 2.5 以后, 从 ambari 上安装 spark2 ,原先的 ambari 版本是不支持 spark2 的

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文