Spark读取HA模式HDFS Caused by: java.net.UnknownHostException: masters
Spark版本:1.6.1
Hadoop版本:2.6.2
HDFS模式为:HA(正常使用,没有任何问题)
<property> <name>fs.defaultFS</name> <value>hdfs://masters</value> </property> <!--指定hdfs的nameservice为masters,需要和core-site.xml中的保持一致 --> <property> <name>dfs.nameservices</name> <value>masters</value> </property>
使用Spark读取HDFS文件,报错Caused by: java.net.UnknownHostException: masters
val line = sc.textFile("hdfs://masters/user/hadoop/wordcount/input")
尝试解决方法:
1. 拷贝core-site.xml和hdfs-site.xml到$SPARK_HOME/conf/目录下:失败
2. 在$SPARK_HOME/conf/spark-default.conf添加:失败
spark.files file:///home/hadoop/work/spark-1.6.1/conf/hdfs-site.xml,file:///home/hadoop/work/spark-1.6.1/conf/core-site.xml
不知道哪位大侠有这方面的经验啊,给个答案吧。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
请问解决了吗,碰到同样问题了