您的位置:首页 > 数据库 > MySQL

logstash-input-jdbc实现mysql 与elasticsearch实时同步

2017-09-02 10:31 811 查看
jdbc_log.conf:
input {
jdbc {
jdbc_connection_string => "jdbc:mysql://192.168.13.223:3306/test_logstash"
jdbc_user => "root"
jdbc_password => "root"
jdbc_driver_library => "/usr/local/logstash-2.4.0/jdbc_conf/mysql-connector-java-5.1.38.jar"
jdbc_driver_class => "com.mysql.jdbc.Driver"
jdbc_paging_enabled => "true"
jdbc_page_size => "50000"
#statement_filepath => "/usr/local/logstash-2.4.0/jdbc_conf/jdbc.sql"
statement => "SELECT * from logstash_user where logstash_user.last_modify_time > :sql_last_value"
last_run_metadata_path => "/usr/local/logstash-2.4.0/jdbc_conf/my_info"
clean_run => false
record_last_run => true
use_column_value => true
tracking_column => "last_modify_time"
schedule => "* * * * *"
type => "cc_type"
}
}

filter {
json {
source => "message"
remove_field => ["message"]
}
}

output {
elasticsearch {
hosts => "192.168.13.223:9200"
index => "cc_index"
document_id => "%{id}"
}
stdout {
#以JSON格式输出
codec => json_lines
}
}

JDBC(Java Data Base Connectivity,Javajava数据库连接)参数

如果要了解其它数据库,可以参考我的 http://www.cnblogs.com/licongyu/p/5535833.html
jdbc_driver_library => "/etc/logstash/driver.d/sqljdbc_2.0/enu/sqljdbc4.jar" //jdbc sql server 驱动,各个数据库都有对应的驱动,需自己下载
jdbc_driver_class => "com.microsoft.sqlserver.jdbc.SQLServerDriver" //jdbc class 不同数据库有不同的 class 配置
jdbc_connection_string => "jdbc:sqlserver://200.200.0.18:1433;databaseName=test_db" //配置数据库连接 ip 和端口,以及数据库
jdbc_user => //配置数据库用户名
jdbc_password => //配置数据库密码

# schedule => 分 时 天 月 年
# schedule => * 22 * * * //will execute at 22:00 every day
schedule => "* * * * *"

重要参数设置

//是否记录上次执行结果, 如果为真,将会把上次执行到的 tracking_column 字段的值记录下来,保存到 last_run_metadata_path 指定的文件中
record_last_run => true

//是否需要记录某个column 的值,如果 record_last_run 为真,可以自定义我们需要 track 的 column 名称,此时该参数就要为 true. 否则默认 track 的是 timestamp 的值.
use_column_value => true

//如果 use_column_value 为真,需配置此参数. track 的数据库 column 名,该 column 必须是递增的.比如:ID.
tracking_column => MY_ID

//指定文件,来记录上次执行到的 tracking_column 字段的值
//比如上次数据库有 10000 条记录,查询完后该文件中就会有数字 10000 这样的记录,下次执行 SQL 查询可以从 10001 条处开始.
//我们只需要在 SQL 语句中 WHERE MY_ID > :last_sql_value 即可. 其中 :last_sql_value 取得就是该文件中的值(10000).
last_run_metadata_path => "/etc/logstash/run_metadata.d/my_info"

//是否清除 last_run_metadata_path 的记录,如果为真那么每次都相当于从头开始查询所有的数据库记录
clean_run => false

//是否将 column 名称转小写
lowercase_column_names => false

//存放需要执行的 SQL 语句的文件位置
statement_filepath => "/etc/logstash/statement_file.d/my_info.sql"
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: