java连接spark提示序列化错误,但版本已经对应一致?

新手上路,请多包涵

当我用java连接spark服务端时,出现了下面异常
图片描述

网上大多说的是jar包不一致,但自己查看了是一致的,spark服务端版本如下
图片描述
客户端maven依赖版本
图片描述

spark的jdk版本为1.8.0_181,客户端jdk版本为1.8.0_151,但这个好像和这个错误无关

相关代码

以下为连接代码,测试用

public class SparkConfigJava implements Serializable{
    private static final long serialVersionUID = 9113933108814256261L;
    public static JavaSparkContext getContext() {
        SparkConf sparkConf = new SparkConf().setAppName("mypp").setMaster("spark://master:7077").set("spark.driver.allowMultipleContexts","true");
        return new JavaSparkContext(sparkConf);
    }

    public static void main(String[] args) {
        JavaSparkContext context = SparkConfigJava.getContext();
        JavaRDD<String> input = context.textFile("README.md");
        JavaRDD<String> words = input.flatMap((String x) -> Arrays.asList(x.split(" ")).iterator());
        JavaPairRDD<String,Integer> counts = words.mapToPair(x -> new Tuple2<>(x,1)).reduceByKey((x, y) -> x+y);
        input.saveAsTextFile("count");
    }
}

尝试过网上大部分方法,但好像都没有提及这个错误的,希望有遇到过相同错误的同学告知一下解决方法

阅读 2.2k
1 个回答
✓ 已被采纳新手上路,请多包涵

已解决此问题

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题