$SPARK_HOME/conf下配置core-site.xml连接远程hive仓库的HDFS不起作用

发布于 2022-09-11 22:14:29 字数 1410 浏览 38 评论 0

问题描述

执行spark-submit [pyspark脚本].py,执行到SQL语句时报连接失败错误,在配置使用远程HDFS的情况下依然尝试连接本地的9000端口,根据此错误信息的官网介绍第五段,9000端口是HDFS端口。
(仅摘录重要信息):

Traceback (most recent call last):
  File "/root/try.py", line 15, in <module>

    coap = spark.sql("select * from [表名] limit 5").collect()

py4j.protocol.Py4JJavaError: 
An error occurred while calling o42.collectToPython.
: java.net.ConnectException:
Call From master/127.0.1.1 to master:9000 failed on connection

问题出现的环境背景及自己尝试过哪些方法

按照spark官网Hive Tables文档第二段内容,将core-site.xml文件放在了$SPARK_HOME/conf目录下。其中有配置信息:

    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://192.168.0.24:9000/</value>
    </property>

发现不管用之后,又根据官网文档Inheriting Hadoop Cluster Configuration的指南,把同文件夹下的spark-env.sh文件中HADOOP_CONF_DIR环境变量的值指向了$SPARK_HOME/conf的绝对路径(文件里写的并不是$SPARK_HOME),然而依然不管用。

spark-defaults.conf内也没有可能覆盖此项的配置,pyspark脚本里更没有。

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

半仙 2022-09-18 22:14:29

我想问一句老哥解决没有,我现在也是这样解决不了

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文