Spark Job因超时而失败
我正在使用Spark-V2.4.5与Java1.8一起使用Spark Job。 它失败了,以下错误
应用程序应用程序_1650878536374_11143以前失败了1次 3600000毫秒(全局限制= 2;本地限制为= 1) 尝试尝试AppattEmpt_1650878536374_11143_000001 超时。失败应用程序
这是什么意思(全局限制= 2;本地限制为= 1)?如何解决这个问题?
I am using spark-v2.4.5 with java1.8 in my spark job.
Its failing with below error
Application application_1650878536374_11143 failed 1 times in previous
3600000 milliseconds (global limit =2; local limit is =1) due to
ApplicationMaster for attempt appattempt_1650878536374_11143_000001
timed out. Failing the application
What does this mean (global limit =2; local limit is =1) ? how to fix this ?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论