怎么把ambari下的spark版本升级?我是本地源安装的ambari和集群。
。能不能把本地源的spark安装包卸载了,替换搞版本的sparkbendiyuan
这下面的rpm包 怎么替换spark2.0的rpm包?
这些是ambari里带的组件的版本 spark是1.6的。
怎么把spark在各个节点上完整的卸载下来,在hdp的本地源下替换saprk1.6的包为2.0(这些rpm包在哪里下载?替换完在ambari界面是怎么成功显示spark版本2.0 并能成功安装)
求!大神解答。。。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(3)
不能直接升级,可以自己手动再安装个新版本,我就是这样的,与原来的1.5版本共存在添加一个2.1
不可以这样升级, 只能升级 ambari
请问最后是怎么解决这个问题的?我现在的需求比较类似,我的解决方案是计划在本地重新部署spark源然后在本地通过apt-get 对其进行升级替换,目前卡在编译spark这个地方