为hadoop作业指定多个输入文件
有没有办法为一个 hadoop 作业指定多个输入文件? 我尝试过使用“,”进行分隔,但这不起作用......还有其他建议吗?
我能够做到这一点...通过编写自己的方法来根据所选的拆分器进行拆分,然后将新创建的路径添加到作业配置中
Is there a way to specify multiple input files for a hadoop job?
I've tried separation using ',' but that didnt' work...any other suggestions?
I was able to do so...by writing my own method to do a split based off of the splitter selected and then adding the newly created paths to the job conf
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
您可以指定一个目录作为输入路径,它将处理该目录中的所有文件。
You can specify a directory as the input path and it will process all files in that directory.