如何通过gcloud命令查看群集名称,数据ploc作业的执行时间
我们需要调查在特定日期运行的DataProc作业。 在运行命令时 -
gcloud dataproc jobs list --region=<region_name>
有助于以低于输出格式 -
JOB_ID TYPE STATUS
类型可以是火花/蜂巢,并且可以完成状态/错误
是否有任何方法可以检查工作执行时间和群集名称?
We need to investigate dataproc jobs ran on particular date.
While running command -
gcloud dataproc jobs list --region=<region_name>
It helps to get below output format -
JOB_ID TYPE STATUS
where TYPE could be spark/hive and STATUS could be DONE/ERROR
is there any way to check job execution time and cluster name as well ?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
我能够在此围绕此设置的最好的事情
可以为您提供给定数据pos作业的开始和结束时间,
如果您设置了任何设置,也可以选择
labels
。但是,我仍然无法弄清楚在给定持续时间内获取工作细节。看起来不可能通过
gcloud
。对答案的任何更新/建议都非常感谢。
The best thing I was able to code around this as
Setting up below can give you the start and end time for a given dataproc job
you can also opt for
labels
if you have set any.However, I still not able to figure out to get the job details for a given duration. Looks like its not possible via
gcloud
.Any update/suggestion to the answer is much appreciated.