返回介绍

数学基础

统计学习

深度学习

工具

Scala

一、核心概念

发布于 2023-07-17 23:38:23 字数 591 浏览 0 评论 0 收藏 0

  1. 每个spark 应用都由一个驱动器程序(driver program)来发起集群上的各种并行操作

    • driver program 包含了应用的main 函数,并且定义了集群上的分布式数据集,还对这些分布式数据集应用了相关操作
    • driver program 通过一个SparkContext 对象来访问spark
    • driver program 一般要管理多个执行器(executor) 节点
  2. SparkContext:该对象代表了对计算集群的一个连接

    • pyspark shell 中,当shell 启动时,已经自动创建了一个SparkContext 对象,它叫做sc
    • 通常可以用它来创建RDD

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文