CDH5.7.6安装spark时出现目录不存在的问题
环境:CDH5.7.6
图一中明明是创建了,图二中却说找不到,这个问题有点奇怪。后来我手动创建,手动chmod,chown给spark:spark,仍然报这个错误,请问大家有遇到过这种情况吗?后来如何解决的?谢谢!
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
环境:CDH5.7.6
图一中明明是创建了,图二中却说找不到,这个问题有点奇怪。后来我手动创建,手动chmod,chown给spark:spark,仍然报这个错误,请问大家有遇到过这种情况吗?后来如何解决的?谢谢!
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
接受
或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
发布评论
评论(6)
回复
HDFS的目录一般是系统自动创建的,这个是有帐号自己自动创建的,你看看你的CDH用了多少帐号,分别都在Linux系统中存在这些帐号吗?
回复
你猜我后来怎么解决的,直接在Linux建立这个目录,就通过检测了,现在跑得欢快。我想这应该是这个版本的bug吧。
回复
你装的是单机的spark还是spark On YARN?
回复
CDH5.7的,没有spark on yarn了
回复
CDH提供了两种spark的运行方式,一种spark(Standalone),这种就是单节点的,另一种是spark,这个是spark on YARN模式,这个后面都有注释。
你画红线的地方,它指的是HDFS中的目录,不是Linux上的。