Spark读取HA模式HDFS Caused by: java.net.UnknownHostException: masters

发布于 2021-12-03 12:28:55 字数 1162 浏览 707 评论 1

Spark版本:1.6.1

Hadoop版本:2.6.2

HDFS模式为:HA(正常使用,没有任何问题)

<property>
  <name>fs.defaultFS</name>
  <value>hdfs://masters</value>
</property>

<!--指定hdfs的nameservice为masters,需要和core-site.xml中的保持一致 -->
<property>
  <name>dfs.nameservices</name>
  <value>masters</value>
</property>

使用Spark读取HDFS文件,报错Caused by: java.net.UnknownHostException: masters

val line = sc.textFile("hdfs://masters/user/hadoop/wordcount/input")

尝试解决方法:

1. 拷贝core-site.xml和hdfs-site.xml到$SPARK_HOME/conf/目录下:失败

2. 在$SPARK_HOME/conf/spark-default.conf添加:失败

spark.files file:///home/hadoop/work/spark-1.6.1/conf/hdfs-site.xml,file:///home/hadoop/work/spark-1.6.1/conf/core-site.xml

不知道哪位大侠有这方面的经验啊,给个答案吧。

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

各自安好 2021-12-04 03:40:35

请问解决了吗,碰到同样问题了

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文