Skip to content

kxy654856826/jlogstash-output-plugin

 
 

Repository files navigation

output 详情见wiki #Elasticsearch: index:索引(dtlog-%{tenant_id}-%{+YYYY.MM.dd}) 必填

  indexTimezone: 如果索引有时间,配置时区 默认 UTC

  documentId:文档id

  documentType: 文档类型 默认 logs;

  cluster:集群名称

  hosts:ip地址,带的端口是tcp端口,数组结构(["172.16.1.185:9300","172.16.1.188:9300"])必填

  sniff:默认true

  bulkActions: 默认 20000 

  bulkSize:默认 15

  consistency:false 数据一致性的开关,默认关闭;打开之后,在elasticsearch 集群不可用的情况下,数据会不断重试,不会再消费input数据,直到elasticsearch集群可用

#Elasticsearch5: index:索引(dtlog-%{tenant_id}-%{+YYYY.MM.dd}) 必填

  indexTimezone: 如果索引有时间,配置时区 默认 UTC

  documentId:文档id

  documentType: 文档类型 默认 logs;

  cluster:集群名称

  hosts:ip地址,带的端口是tcp端口,数组结构(["172.16.1.185:9300","172.16.1.188:9300"])必填

  sniff:默认true

  bulkActions: 默认 20000 

  bulkSize:默认 15

  consistency:false 数据一致性的开关,默认关闭;打开之后,在elasticsearch 集群不可用的情况下,数据会不断重试,不会再消费input数据,直到elasticsearch集群可用

#Kafka: encoding:默认utf-8

  topic:必填(dt-%{tenant_id})

brokerList:kafka集群地址,多个逗号隔开(12.24.36.128:9092,11.37.67.213:9092)

keySerializer: 默认值 kafka.serializer.StringEncoder 可以自定义

valueSerializer:默认值 kafka.serializer.StringEncoder	 可以自定义

partitionerClass:默认值 kafka.producer.DefaultPartitioner  可以自定义
 
producerType:默认值 "sync" //sync,async 可选
 
compressionCodec: "none" //gzip,snappy,lz4,none
 
clientId 默认没有

batchNum 默认kafka自带的值

requestRequiredAcks 默认值为1

#Performance: interval:数据刷入文件的间隔时间,默认30秒

timeZone:时区 默认UTC

path:文件路径(home/admin/jlogserver/logs/srsyslog-performance-%{+YYYY.MM.dd}.txt)必填

#File: timeZone:时区 默认UTC

path:文件路径(home/admin/jlogserver/logs/srsyslog-performance-%{+YYYY.MM.dd}.txt)必填

codec:默认是json_lines(可选值:line(可以自定义输出的属性和属性之间的分隔符),json_lines(json格式的字符串格式输出))

format:自定义输出的格式(tenant_id|ip)

split:自定义输出格式属性之间的分隔符

#Stdout: 标准输出 codec:line(默认值) line,json_lines, java_lines三种值可以选择

About

java 版本 logstash output 插件

Resources

License

Stars

Watchers

Forks

Packages

No packages published

Languages

  • Java 81.3%
  • CSS 12.3%
  • HTML 6.4%