Hadoop复制一个目录?
是否有HDFS API可以将整个本地目录复制到HDFS?我找到了一个用于复制文件的 API,但是有用于目录的 API 吗?
Is there an HDFS API that can copy an entire local directory to the HDFS? I found an API for copying files but is there one for directories?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(5)
使用 Hadoop FS shell。具体来说:
如果您想以编程方式执行此操作,请创建两个文件系统(一个本地文件系统和一个 HDFS)并使用 FileUtil 类
Use the Hadoop FS shell. Specifically:
If you want to do it programmatically, create two FileSystems (one Local and one HDFS) and use the FileUtil class
我尝试使用 It 给我一个错误,说 Target is a directory 从目录中复制
。然后我将其修改为
有效。
I tried copying from the directory using
It gave me an error saying Target is a directory . I then modified it to
it works .
在 Hadoop 版本中:(
可能稍后;我只测试了这个特定版本,因为它是我拥有的版本)
您可以使用
copyFromLocal
递归复制整个目录,无需任何特殊符号,例如:即使在
/path/on/disk
是包含子目录和文件的目录。In Hadoop version:
(And probably later; I have only tested this specific version as it is the one I have)
You can copy entire directories recursively without any special notation using
copyFromLocal
e.g.,:which works even when
/path/on/disk
is a directory containing subdirectories and files.您还可以使用
put
命令:You can also use the
put
command:对于程序员来说,你也可以使用copyFromLocalFile。这是一个例子:
For programmer, you also can use copyFromLocalFile. Here is an example: