如何获取hadoop失败的attempt的所用数据
用hadoop streaming跑python脚本会在一些mapper attempt上面报错:
17/10/27 17:48:04 INFO mapreduce.Job: Task Id : attempt_1509090367939_0005_m_000052_0, Status : FAILED
Error: java.lang.RuntimeException: PipeMapRed.waitOutputThreads(): subprocess failed with code 139
通过yarn也只能看到说是这个问题,没有更多的细节。找了半天也没有找到哪里能够看到详细的日志。所以,我的问题是:
- 如何能看到详细的报错原因
2. 如何能够获取到具体的mapper所被split到的数据(就可以重现错误)
谢谢
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论