列出使用最高资源的Hadoop纱线作业

发布于 2025-01-25 13:04:54 字数 74 浏览 6 评论 0原文

我想知道如何列出使用最高内存和CPU的作业,是否有任何命令列出最高内存使用的作业?就像我想知道特定作业正在使用多少个vcors和内存。

i want to know how to list out jobs that are using highest memory and CPU, is there any command to list out highest memory used jobs? like i want to know how many vcores and memory a particular job is using.

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

眼中杀气 2025-02-01 13:04:54

您应该能够从YARN UI中部分收集这些数据,但是我认为您最好直接在每台可以收集有关Linux Process使用本身信息的机器上安装Prometheus节点/过程出口商或类似代理

You should be able to gather this data partially from the YARN UI, but I think you'd be better off installing Prometheus node/process exporters, or similar agents, directly on each machine that can gather information about the Linux process usage themselves

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文