分离 Hadoop Map 和 Reduce 任务
在 3 节点 hadoop 集群中。我希望主节点为 1 个节点。 Map任务发生在1个节点,Reduce任务发生在1个节点。 Map和Reduce任务应该分开。是否可以?据我所知,两者一起运行。如果你能透露一些信息那就太好了。谢谢 !
-塞图
In a 3 node hadoop cluster. I would like the master to be 1 node. Map task taking place in one node and reduce tasks in 1 node. Map and reduce tasks should be separated. Is it possible? As far as i noticed both run together. It will be great if you can shed some light. Thank you !
-Sethu
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
这并不是最佳选择,因为地图输出必须始终复制到另一台服务器。
但是您可以简单地修改服务器上的mapred-site.xml。
在不应该运行reducer的服务器上,您可以将reduce.task.maximum设置为零。对于其他服务器反之亦然。
This is everything else than optimal because the map output must ALWAYS be copied to another server.
But you can simply modify your mapred-site.xml on the servers.
On the server where no reducers should run you put into the reduce.task.maximum a zero. And vice versa for the other servers.