为什么Spark只会惰性计算RDD?
为什么Spark只会惰性计算RDD?为什么只有第一次在一个行动操作中用到时,才会真正计算?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
为什么Spark只会惰性计算RDD?为什么只有第一次在一个行动操作中用到时,才会真正计算?
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
接受
或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
发布评论
评论(2)
计算资源那么宝贵,为什么要做无用的计算?
不仅计算资源宝贵,个人觉得更为重要的是spark有一个pipeline和DAG的概念。