Yarn的出现到底给MapReduce、Spark等带来了什么?
好多MapReduce On Yarn , Spark On Yarn
可是没有yarn, MapReduce Spark 不是一样跑
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
好多MapReduce On Yarn , Spark On Yarn
可是没有yarn, MapReduce Spark 不是一样跑
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
接受
或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
发布评论
评论(1)
这是为了统一资源管理,假如我集群同时装了spark与hadoop,spark是不知道mapreduce任务占了多少内核,多少内存的,分配任务的时候,以为这个节点是空闲的,其实已经被mapreduce占满了,就会导致spark任务运行失败,同时资源不统一管理也会涉及到相互锁住资源的问题.