返回介绍

数学基础

统计学习

深度学习

工具

Scala

二、广播变量

发布于 2023-07-17 23:38:23 字数 2163 浏览 0 评论 0 收藏 0

  1. 广播变量可以让程序高效的向所有工作节点发送一个较大的只读值

  2. spark 会自动的把闭包中所有引用到的变量都发送到工作节点上。虽然这很方便,但是也很低效。原因有二:

    • 默认的任务发射机制是专门为小任务进行优化的
    • 事实上,你很可能在多个并行操作中使用同一个变量。但是spark 会为每个操作分别发送。

2.1 Broadcast

  1. Broadcast 变量的value 中存放着广播的值,该值只会被发送到各节点一次

  2. Broadcast 的方法:

    • .destroy():销毁当前Broadcast 变量的所有数据和所有metadata

      • 注意:一旦一个Boradcast 变量被销毁,那么它就再也不能被使用
      • 该方法将阻塞直到销毁完成
    • .dump(value,f):保存Broadcast 变量

    • .load(path):加载Broadcast 变量

    • .unpersist(blocking=False):删除Broadcast 变量在executor 上的缓存备份。

      • 如果在此之后,该Broadcast 被使用,则需要从驱动器程序重新发送Broadcast 变量到executor

      • 参数:

        • blocking:如果为True,则阻塞直到unpersist 完成
  3. 属性:

    • .value:返回Broadcast 变量的值
  4. 使用Broadcast 的流程:

    • 通过SparkContext.broadcast(xx) 创建一个Broadcast 变量
    • 通过.value 属性访问该对象的值
    • 该变量只会被发送到各节点一次,应该作为只读值来处理(修改这个值并不会影响到其他的节点)

    示例:

    
    
    xxxxxxxxxx
    bd=sc.broadcast(tuple('name','json')) def xxx(row): s=bd.value[0]+row return s rdd=rdd.map(xxx)

2.2 广播的优化

  1. 当广播一个较大的值时,选择既快又好的序列化格式非常重要

    • 如果序列化对象的时间较长,或者传送花费的时间太久,则这个时间很容易成为性能瓶颈
  2. spark 中的Java APIScala API 默认使用的序列化库为Java 序列化库,它对于除了基本类型的数组以外的任何对象都比较低效。

    • 你可以使用spark.serializer 属性来选择另一个序列化库来优化序列化过程

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文