Hadoop作业如何自行杀死

发布于 2024-11-08 01:52:44 字数 481 浏览 0 评论 0原文

有没有办法杀死 Hadoop 作业本身或发送信号来杀死它。 我已经从 jobConf 中阅读了配置设置,其中表示如果用户指定了错误的设置,我需要终止作业或引发错误,因为 map/reduce config 方法不允许引发异常。

public void configure(JobConf job) {
    System.out.println("Inside config start processing");
     try {

            String strFileName =  job.get("hadoop.rules");
            LoadFile(strFileName );
     } catch (Exception e) {
         e.printStackTrace();
        //Here i need to write code to kill job
     }
}

Is there any way to kill a Hadoop job itself or send a signal to kill it.
I've read the Configuration settings from jobConf where it says that if a user specify the wrong settings I need to kill the job or throw an error, since map/reduce config method does not allow throwing an exception.

public void configure(JobConf job) {
    System.out.println("Inside config start processing");
     try {

            String strFileName =  job.get("hadoop.rules");
            LoadFile(strFileName );
     } catch (Exception e) {
         e.printStackTrace();
        //Here i need to write code to kill job
     }
}

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(2

猫弦 2024-11-15 01:52:44

在configure()方法中,只需抛出一个RuntimeException即可。

更好的是,如果可能的话,您最好在作业运行之前执行验证步骤。

In the configure() method, just throw a RuntimeException.

Better yet, if possible, you're better off performing your validation step before the job is run.

合约呢 2024-11-15 01:52:44

只需将状态保存到名为 kill 的布尔变量中,并在映射步骤内评估该变量,然后抛出 IOException 即可。

Just save the state into a boolean variable called kill and evaluate the variable inside the map step and then throw an IOException.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文