logstash 7.9.0同步多张表到elasticsearch
input { stdin { } jdbc { type => "user" # 连接的数据库地址和哪一个数据库,指定编码格式,禁用SSL协议,设定自动重连 jdbc_connection_string => "jdbc:mysql://127.0.0.1:3306/userdb?serverTimezone=Asia/Shanghai&characterEncoding=utf8&useSSL=false&zeroDateTimeBehavior=convertToNull" jdbc_user => "user" jdbc_password => "password" # 下载连接数据库的驱动包,建议使用绝对地址 jdbc_driver_library => "/u02/mysql-connector-java-8.0.20/mysql-connector-java-8.0.20.jar" jdbc_driver_class => "com.mysql.jdbc.Driver" jdbc_paging_enabled => "true" jdbc_page_size => "50000" codec => plain { charset => "UTF-8"} #使用其它字段追踪,而不是用时间 #use_column_value => true //这里如果是用时间追踪比如:数据的更新时间或创建时间等和时间有关的这里一定不能是true, 切记切记切记,我是用update_time来追踪的 #追踪的字段 tracking_column => modify_time record_last_run => true #上一个sql_last_value值的存放文件路径, 必须要在文件中指定字段的初始值 这里说是必须指定初始值,我没指定默认是1970-01-01 08:00:00 last_run_metadata_path => "/u02/logstash-7.6.2/bin/user_last_id" jdbc_default_timezone => "Asia/Shanghai" statement => "SELECT * FROM user WHERE modify_time > :sql_last_value" #是否清除 last_run_metadata_path 的记录,如果为真那么每次都相当于从头开始查询所有的数据库记录 第一次可开启 clean_run => true # 这是控制定时的,重复执行导入任务的时间间隔,第一位是分钟 不设置就是1分钟执行一次 schedule => "* * * * *" } jdbc { type => "dept" jdbc_connection_string => "jdbc:mysql://127.0.0.1:3306/userdb?serverTimezone=Asia/Shanghai&characterEncoding=utf8&useSSL=false&zeroDateTimeBehavior=convertToNull" jdbc_user => "user" jdbc_password => "password" jdbc_driver_library => "/u02/mysql-connector-java-8.0.20/mysql-connector-java-8.0.20.jar" jdbc_driver_class => "com.mysql.jdbc.Driver" jdbc_paging_enabled => "true" jdbc_page_size => "50000" codec => plain { charset => "UTF-8"} tracking_column => modify_time record_last_run => true last_run_metadata_path => "/u02/logstash-7.6.2/bin/dept_last_id" jdbc_default_timezone => "Asia/Shanghai" # 如果表中有type字段只能写出所有需要字段并给type取别名 否则会同步失败 statement_filepath => "/u02/logstash-7.6.2/bin/jdbc.sql" #是否清除 last_run_metadata_path 的记录,如果为真那么每次都相当于从头开始查询所有的数据库记录 第一次可开启 clean_run => true # 这是控制定时的,重复执行导入任务的时间间隔,第一位是分钟 不设置就是1分钟执行一次 schedule => "* * * * *" } } filter { json { source => "message" remove_field => ["message"] } } output { if [type]=="user" { elasticsearch { # 要导入到的Elasticsearch所在的主机 hosts => "127.0.0.1:9200" # 要导入到的Elasticsearch的索引的名称 index => "user" # 主键名称(类似数据库主键) document_id => "%{id}" } stdout { # JSON格式输出 codec => json_lines } } if [type]=="dept" { elasticsearch { # 要导入到的Elasticsearch所在的主机 hosts => "127.0.0.1:9200" # 要导入到的Elasticsearch的索引的名称 index => "dept" # 主键名称(类似数据库主键) document_id => "%{id}" } stdout { # JSON格式输出 codec => json_lines } } }