Ambari上面的Spark1.3想要升级到2.0应该怎么做?
Ambari上面的Spark1.3想要升级到2.0应该怎么做?
现在用的是HDP2.3,HADOOP是2.7版本,Spark太老了才是1.3,想升级到2.0。
我已经下载了pre-build版本的spark2.0 但是怎么样才能让系统认到,集成到ambari里面呢?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(4)
楼主你搞定了么? 现在的话应该是升级到最新版的Ambari就可以将2.0了,我没有试过。
需要将ambari升级到最新版本,然后直接在ambari里进行spark的升级操作!
可以自己手动再安装个新版本,我就是这样的,与原来的1.5版本共存在添加一个2.1
需要将 ambari 升级到 2.5 以后, 从 ambari 上安装 spark2 ,原先的 ambari 版本是不支持 spark2 的