java连接spark提示序列化错误,但版本已经对应一致?

发布于 2022-09-11 22:35:50 字数 1321 浏览 18 评论 0

当我用java连接spark服务端时,出现了下面异常
图片描述

网上大多说的是jar包不一致,但自己查看了是一致的,spark服务端版本如下
图片描述
客户端maven依赖版本
图片描述

spark的jdk版本为1.8.0_181,客户端jdk版本为1.8.0_151,但这个好像和这个错误无关

相关代码

以下为连接代码,测试用

public class SparkConfigJava implements Serializable{
    private static final long serialVersionUID = 9113933108814256261L;
    public static JavaSparkContext getContext() {
        SparkConf sparkConf = new SparkConf().setAppName("mypp").setMaster("spark://master:7077").set("spark.driver.allowMultipleContexts","true");
        return new JavaSparkContext(sparkConf);
    }

    public static void main(String[] args) {
        JavaSparkContext context = SparkConfigJava.getContext();
        JavaRDD<String> input = context.textFile("README.md");
        JavaRDD<String> words = input.flatMap((String x) -> Arrays.asList(x.split(" ")).iterator());
        JavaPairRDD<String,Integer> counts = words.mapToPair(x -> new Tuple2<>(x,1)).reduceByKey((x, y) -> x+y);
        input.saveAsTextFile("count");
    }
}

尝试过网上大部分方法,但好像都没有提及这个错误的,希望有遇到过相同错误的同学告知一下解决方法

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

卖梦商人 2022-09-18 22:35:50

已解决此问题

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文