返回介绍

output配置 - hdfs

发布于 2020-06-28 10:03:42 字数 2126 浏览 961 评论 0 收藏 0

This plugin based on WebHDFS api of Hadoop, it just POST data to WebHDFS port. So, it’s a native Ruby code.

  1. output {
  2. hadoop_webhdfs {
  3. workers => 2
  4. server => "your.nameno.de:14000"
  5. user => "flume"
  6. path => "/user/flume/logstash/dt=%{+Y}-%{+M}-%{+d}/logstash-%{+H}.log"
  7. flush_size => 500
  8. compress => "snappy"
  9. idle_flush_time => 10
  10. retry_interval => 0.5
  11. }
  12. }

This plugin based on HDFS api of Hadoop, it import java classes like org.apache.hadoop.fs.FileSystem etc.

Configuration

  1. output {
  2. hdfs {
  3. path => "/path/to/output_file.log"
  4. enable_append => true
  5. }
  6. }

Howto run

  1. CLASSPATH=$(find /path/to/hadoop -name '*.jar' | tr 'n' ':'):/etc/hadoop/conf:/path/to/logstash-1.1.7-monolithic.jar java logstash.runner agent -f conf/hdfs-output.conf -p /path/to/cloned/logstash-hdfs

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文