本地 fs.copyFromLocalFile无法成功
问题描述
ubuntu 服务器上部署了hadoop 启动了HDFS 和 yarn
本地windows java调用hadoop api copyFromLocalFile 文件是出错
问题出现的环境背景及自己尝试过哪些方法
错误如图:
相关代码
// 请把代码文本粘贴到下方(请勿用图片代替代码
相关代码:
package com.shican.hadoop;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
public class HadoopOne {
public static FileSystem fs;
public final static String HDFS_URI_KEY = "fs.defaultFS";
public final static String HDFS_URI_VALUE = "hdfs://shicanLeft:9000"; //本地hosts做了映射
static {
try {
Configuration conf = new Configuration();
conf.set(HDFS_URI_KEY, HDFS_URI_VALUE);
FileSystem fileSystem = FileSystem.get(conf);
fs = fileSystem;
} catch (IOException e) {
e.printStackTrace();
}
}
public void hdfsUpload() {
try {
fs.copyFromLocalFile(new Path("c:/SangforServiceClient_201872.log"), //本地文件
new Path("/SangforServiceClient_201872.log"));
} catch (IOException e) {
e.printStackTrace();
}
}
}
你期待的结果是什么?实际看到的错误信息又是什么?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论