设置 Hadoop 时遇到问题
我遇到的问题是,当我运行 bin/hadoop fs -ls 时,它会打印出我所在的本地目录的所有文件,而不是 hdfs 中的文件(当前应该是没有任何)。我的设置方法如下:
我已下载所有 0.20.2 文件并将其解压缩到 /home/micah/hadoop-install/
中。我使用以下设置编辑了 conf/hdfs-site.xml
并创建了适当的目录:
<configuration>
<property>
<name>fs.default.name</name>
<value>localhost:9000</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/micah/hdfs/data</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/home/micah/hdfs/name</value>
</property>
</configuration>
然后运行 bin/hadoop namenode -format
,然后运行 bin/start-dfs.sh
。
The issue I'm having is that when I run bin/hadoop fs -ls
it prints out all the files of the local directory that I'm in and not the files in hdfs (which currently should be none). Here's how I set everything up:
I've downloaded and unzipped all the 0.20.2 files into /home/micah/hadoop-install/
. I've edited my conf/hdfs-site.xml
with the following settings and created the appropriate directories:
<configuration>
<property>
<name>fs.default.name</name>
<value>localhost:9000</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/micah/hdfs/data</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/home/micah/hdfs/name</value>
</property>
</configuration>
I then ran bin/hadoop namenode -format
followed by bin/start-dfs.sh
.
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(3)
试试这个:
Try this:
我遇到了类似的问题,发现我的 HDFS 数据目录权限错误。
使用 chmod -R gw 从数据目录中删除组写入权限修复了该问题。
I had a similar issue and found that my
HDFS
data directory permissions were wrong.Removing group write privileges with
chmod -R g-w
from the data directory fixed the problem.谢谢,执行以下操作解决了我的问题
Thanks , Doing the following resolved my issue