hadoop上java
本人参考书上的源代码在hadoop上做实验,源代码如下:
public class URLCat {
static {
URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
}
public static void main(String[] args) throws Exception {
InputStream in = null;
try {
in = new URL(args[0]).openStream();
IOUtils.copyBytes(in, System.out, 4096, false);
} finally {
IOUtils.closeStream(in);
}
}
}
程序编译完成后,执行:
hadoop URLCat hdfs://文件路径...
报错:
Exception in thread "main" java.lang.UnsupportedClassVersionError: URLCat:Unsupported major.minor version 51.0
...
怎么破?
怎么解决?
谢谢~
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(4)
这个异常应该和源码没有关系。
class文件结构里最开头4字节是
Magic Number
,也就是0xCAFEBABE
。后面接的4个字节就是题主异常信息中的
Minor version
和Major version
。第5、第6是
Minor version
,第7、第8则是Major version
。而Java的版本号是从45开始的,参考:
真不知道知道这些有什么用,题主试试用Java7以上编译。
参考:http://en.wikipedia.org/wiki/Java_class_file
java 版本不对
源码的话,应该没问题,如果是这样报错的话,我遇到过,是因为环境变量和conf文件指定的问题,找不到你所指定的URLCat这个类,你只要配置好你所需要使用的集群的配置文件,并且指定好对应集群的客户端,以及相关的各种库就可以了,当时我也是搞了很久,在书上对配置的东西弱化了,没怎么讲,只能自己去实践。
你可以参考一下这个文章:
http://segmentfault.com/blog/akunamatata/1190000002610514
这里面详细讲了如何配置环境变量,编译,执行,以及如何指定配置文件
从异常提示的信息的来看就是不支持的class文件版本异常,建议更换更高版本的jdk