java连接spark提示序列化错误,但版本已经对应一致?
当我用java连接spark服务端时,出现了下面异常
网上大多说的是jar包不一致,但自己查看了是一致的,spark服务端版本如下
客户端maven依赖版本
spark的jdk版本为1.8.0_181,客户端jdk版本为1.8.0_151,但这个好像和这个错误无关
相关代码
以下为连接代码,测试用
public class SparkConfigJava implements Serializable{
private static final long serialVersionUID = 9113933108814256261L;
public static JavaSparkContext getContext() {
SparkConf sparkConf = new SparkConf().setAppName("mypp").setMaster("spark://master:7077").set("spark.driver.allowMultipleContexts","true");
return new JavaSparkContext(sparkConf);
}
public static void main(String[] args) {
JavaSparkContext context = SparkConfigJava.getContext();
JavaRDD<String> input = context.textFile("README.md");
JavaRDD<String> words = input.flatMap((String x) -> Arrays.asList(x.split(" ")).iterator());
JavaPairRDD<String,Integer> counts = words.mapToPair(x -> new Tuple2<>(x,1)).reduceByKey((x, y) -> x+y);
input.saveAsTextFile("count");
}
}
尝试过网上大部分方法,但好像都没有提及这个错误的,希望有遇到过相同错误的同学告知一下解决方法
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
已解决此问题