spark core 有没有类似连表查询的操作

发布于 2022-09-04 12:57:10 字数 602 浏览 13 评论 0

问题是这样的

 val list= List((1,2),(3,5),(6,9))
 val list2= List((3,4),(5,9),(9,12))

这两个list我写入rdd,然后想让list每一个元素的value查找list2的key进行合并,像这样

  (3,5)(5,9)=> (5,9)
  请问如何可以做到
  
  
  
 

解决方法:

  val list= List((1,2),(3,5),(6,9))
    val list2= List((5,4),(5,9),(9,12))
    val spark = new SparkContext(conf)
    val rdd1 = spark.parallelize(list).map(x=>(x._2,x._1))
    val rdd2 = spark.parallelize(list2)
    val union3=rdd1.join(rdd2).values
    union3.collect().foreach(x=>println(x+" "))

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

听你说爱我 2022-09-11 12:57:10

把list的key value调换然后和list2进行join就可以了
如果用SparkSQL更简单~

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文