列出使用最高资源的Hadoop纱线作业
我想知道如何列出使用最高内存和CPU的作业,是否有任何命令列出最高内存使用的作业?就像我想知道特定作业正在使用多少个vcors和内存。
i want to know how to list out jobs that are using highest memory and CPU, is there any command to list out highest memory used jobs? like i want to know how many vcores and memory a particular job is using.
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
您应该能够从YARN UI中部分收集这些数据,但是我认为您最好直接在每台可以收集有关Linux Process使用本身信息的机器上安装Prometheus节点/过程出口商或类似代理
You should be able to gather this data partially from the YARN UI, but I think you'd be better off installing Prometheus node/process exporters, or similar agents, directly on each machine that can gather information about the Linux process usage themselves