Fork me on GitHub

Canal-HA | 搭建| 配置| 使用

 

1.canal数据采集

Canal是用java开发的基于数据库增量日志解析,提供增量数据订阅&消费的中间件。目前,Canal主要支持了MySQL的Binlog解析,解析完成后才利用Canal Client 用来处理获得的

相关数据。(数据库同步需要阿里的otter中间件,基于Canal)

同步mysql;做拉链表;更新redis

某些情况无法从日志中获取信息,而又无法利用sqoop等ETL工具对数据实时的监控

1.1 使用场景

1)    原始场景: 阿里otter中间件的一部分

  otter是阿里用于进行异地数据库之间的同步框架,canal是其中一部分。

   

2)   常见场景1:更新缓存

   

3)   常见场景2:抓取业务数据新增变化表,用于制作拉链表。

4)  常见场景3:抓取业务表的新增变化数据,用于制作实时统计(我们就是这种场景)

1.2 工作原理

Mysql主从复制过程分成三步:

  • 1)Master主库将改变记录写到二进制日志(binary log)中;
  • 2)Slave从库向mysql master发送dump协议,将master主库的binary log events拷贝到它的中继日志(relay log);
  • 3)Slave从库读取并重做中继日志中的事件,将改变的数据同步到自己的数据库。

                                                                                                                                                                                                                                                                                                                 

 canal的工作原理很简单,就是把自己伪装成slave,假装从master复制数据。

1.3 开启Mysql的binlog

  MySQL的二进制日志可以说是MySQL最重要的日志了,它记录了所有的DDLDML(除了数据查询语句)语句,以事件形式记录,还包含语句所执行的消耗的时间MySQL的二进

制日志是事务安全型的。
一般来说开启二进制日志大概会有1%的性能损耗 。二进制有两个最重要的使用场景:

  其一:MySQL ReplicationMaster端开启binlogMaster把它的二进制日志传递给slaves来达到master-slave数据一致的目的。 
  其二:自然就是数据恢复了,通过使用mysqlbinlog工具来使恢复数据。

二进制日志包括两类文件:

  • 二进制日志索引文件(文件名后缀为.index)用于记录所有的二进制文件;
  • 二进制日志文件(文件名后缀为.00000*)记录数据库所有的DDL和DML(除了数据查询语句)语句事件。

mysql binlog的格式分为三种,分别是STATEMENT,  MIXED,  ROW。在配置文件中可以选择配置binlog_format=row

它们的区别在于:

① statement 
  语句级,binlog会记录每次一执行写操作的语句。

  相对row模式节省空间,但是可能产生不一致性,比如update tt set create_date=now() 

  如果用binlog日志进行恢复,由于执行时间不同可能产生的数据就不同。

  优点: 节省空间;  

  缺点: 有可能造成数据不一致。
② row 
  行级, binlog会记录每次操作后每行记录的变化。

  优点:保持数据的绝对一致性。因为不管sql是什么,引用了什么函数,他只记录执行后的效果。  

  缺点:占用较大空间。
③ mixed
  statement的升级版,一定程度上解决了,因为一些情况而造成的statement模式不一致问题
  在某些情况下譬如: 当函数中包含 UUID() 时; 包含 AUTO_INCREMENT 字段的表被更新时; 执行 INSERT DELAYED 语句时;  用 UDF 时;会按照 ROW的方式进行处理
  优点:节省空间,同时兼顾了一定的一致性。
  缺点:还有些极个别情况依旧会造成不一致,另外statement和mixed对于需要对binlog的监控的情况都不方便。

综合上面对比,Cannel想做监控分析,选择row格式比较合适

binlog的开启

在数据库服务器上将mysql binlog模式开启,并设置为row模式,因为canal对row模式支持较好,支持从指定的binlog的位置读取信息;

在[mysqld] 区块设置/添加 log-bin=mysql-bin

这个表示binlog日志的前缀是mysql-bin ,以后生成的日志文件就是 mysql-bin.123456 的文件后面的数字按顺序生成。 每次mysql重启或者到达单个文件大小的阈值时,新生一个文

件,按顺序编号。

找到mysql配置文件的位置
[kris@hadoop101 bin]$ which mysql   /usr/bin/mysql [kris@hadoop101 bin]$ sudo find / -name my.cnf //mysql的my.cnf文件所在的目录 /usr/my.cnf sudo vim /usr/my.cnf   server-id=1   log-bin=mysql-bin   binlog_format=row   ##binlog-do-db=gmall //可指定监控某个库

重启MySql服务,查看配置是否生效,并添加canal用户赋权限。

 sudo service mysql restart

 mysql -uroot -p123456
mysql> show variables like 'binlog_format';
+---------------+-------+
| Variable_name | Value |
+---------------+-------+
| binlog_format | ROW   |
+---------------+-------+
mysql> show variables like 'log_bin';
+---------------+-------+
| Variable_name | Value |
+---------------+-------+
| log_bin       | ON    |
+---------------+-------+

配置起效果后,创建canale用户,并赋予权限 mysql> CREATE USER canal IDENTIFIED BY 'canal'; mysql> GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'canal'@'%'; mysql> FLUSH PRIVILEGES; mysql> show grants for 'canal' ; +----------------------------------------------------------------------------------------------------------------------------------------------+ | Grants for canal@% | +----------------------------------------------------------------------------------------------------------------------------------------------+ | GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'canal'@'%' IDENTIFIED BY PASSWORD '*E3619321C1A937C46A0D8BD1DAC39F93B27D4458' | +----------------------------------------------------------------------------------------------------------------------------------------------+ 1 row in set (0.00 sec)

查看Mysql的mysql-bin文件

[kris@hadoop101 mysql]$ pwd
   /var/lib/mysql
重启mysql
[kris@hadoop101 mysql]$ sudo service mysql restart
Shutting down MySQL....                                    [确定]
Starting MySQL..... 
  在mysql中更新数据:

  CALL init_data('2019-05-04',10,20,10,TRUE)
    可以看到mysql-bin.000001文件大小发生的变化

[kris@hadoop101 mysql]$ ll //sudo ls -l
总用量 176448
-rw-rw---- 1 mysql mysql       56 3月  15 01:11 auto.cnf
drwx------ 2 mysql mysql     4096 3月  20 19:15 azkaban
drwx------ 2 mysql mysql     4096 5月   4 22:42 gmall
-rw-r----- 1 mysql root    253742 5月   4 22:38 hadoop101.err
-rw-rw---- 1 mysql mysql        5 5月   4 22:37 hadoop101.pid
-rw-rw---- 1 mysql mysql 79691776 5月   4 22:42 ibdata1
-rw-rw---- 1 mysql mysql 50331648 5月   4 22:42 ib_logfile0
-rw-rw---- 1 mysql mysql 50331648 3月  15 01:10 ib_logfile1
drwx------ 2 mysql mysql     4096 4月  23 01:32 metastore
drwx--x--x 2 mysql mysql     4096 3月  15 01:10 mysql
-rw-rw---- 1 mysql mysql    19755 5月   4 22:42 mysql-bin.000001
-rw-rw---- 1 mysql mysql       19 5月   4 22:37 mysql-bin.index
srwxrwxrwx 1 mysql mysql        0 5月   4 22:37 mysql.sock
drwx------ 2 mysql mysql     4096 3月  15 01:10 performance_schema
-rw-r--r-- 1 root  root       125 3月  15 01:10 RPM_UPGRADE_HISTORY
-rw-r--r-- 1 mysql mysql      125 3月  15 01:10 RPM_UPGRADE_MARKER-LAST
drwx------ 2 mysql mysql     4096 4月  19 16:16 sparkmall
drwxr-xr-x 2 mysql mysql     4096 3月  15 01:10 test
View Code

 

2.Canal-HA模式搭建

2.1 环境准备

(1)启动zookeeper

(2)启动kafka

Canal架构

    

 

 下载安装   https://github.com/alibaba/canal/releases

2.2 canal-server

在hadoop101和hadoop102上安装canal-server

在两台节点机器都安装部署:

mkdir -p /opt/module/canal-server tar -zxvf canal.deployer-1.1.4.tar.gz -C /opt/module/canal-server/

在hadoop101和hadoop102上的canal-server上各配置如下:

1)添加zookeeper地址,将file-instance.xml注释,解开default-instance.xml注释。修改两个canal-server节点的配置

vim conf/canal.properties  ##默认端口号为1111,可以修改
  canal.zkServers =hadoop101:2181,hadoop102:2181,hadoop103:2181
  #canal.instance.global.spring.xml = classpath:spring/file-instance.xml
  canal.instance.global.spring.xml = classpath:spring/default-instance.xml

2)在进入conf/example目录修改instance配置,instance.properties是针对要追踪的mysql的实例配置

[kris@hadoop101 canal-server] vim conf/example/instance.properties    //hadoop101机器配置
  canal.instance.mysql.slaveId = 100   //不能与mysql的server-id重复
  canal.instance.master.address = hadoop101:3306

[kris@hadoop102 canal-server] vim conf/example/instance.properties //hadoop102机器的配置   canal.instance.mysql.slaveId = 101   canal.instance.master.address = hadoop101:3306

 

3)启动两台canal-server

[kris@hadoop101 canal-server]$ sh bin/startup.sh 
[kris@hadoop102 canal-server]$ sh bin/startup.sh 

查看日志,无报错便启动成功,一台节点有日志,一台节无日志

      tail -f logs/example/example.log

通过zookeeper查看当前工作节点,可以看出当前活动节点为101

[kris@hadoop101 canal-server]$ /opt/module/zookeeper-3.4.10/bin/zkCli.sh 
  [zk: localhost:2181(CONNECTED) 0] ls /
  [kafa_2.11, zookeeper, yarn-leader-election, hadoop-ha, otter, rmstore]
  [zk: localhost:2181(CONNECTED) 1] get /otter/canal/destinations/example/running  
  {"active":true,"address":"192.168.1.101:11111"}

关闭canal

[kris@hadoop101 canal-server]$ sh bin/stop.sh 
[kris@hadoop102 canal-server]$ sh bin/stop.sh

2.3 对接Kafka

canal 1.1.1版本之后, 默认支持将canal server接收到的binlog数据直接投递到MQ, 目前默认支持的MQ系统有:

(1)修改instance配置文件 (两台节点)

[kris@hadoop101 canal-server]$ vim conf/example/instance.properties
  canal.mq.topic=test  ##将数据发送到指定的topic
  canal.mq.partition=0

(2)修改canal.properties(两台节点)

[kris@hadoop101 canal-server]$ vim conf/canal.properties

canal.serverMode = kafka
canal.mq.servers = hadoop101:9092,hadoop102:9092,hadoop103:9092
canal.mq.retries = 0
canal.mq.batchSize = 16384
canal.mq.maxRequestSize = 1048576
canal.mq.lingerMs = 100
canal.mq.bufferMemory = 33554432
canal.mq.canalBatchSize = 50
canal.mq.canalGetTimeout = 100
canal.mq.flatMessage = true
canal.mq.compressionType = none
canal.mq.acks = all
#canal.mq.properties. =
canal.mq.producerGroup = test

(3)启动canal

[kris@hadoop101 canal-server]$ sh bin/startup.sh
[kris@hadoop102 canal-server]$ sh bin/startup.sh

(4)启动kafka消费者监听topic test

[kris@hadoop103 ~]$ /opt/module/kafka/bin/kafka-console-consumer.sh --bootstrap-server hadoop101:9092 --topic test

(5)向MySql数据库插入条数据 测试

 插入: id = 4,name = smile,sex = femal 

修改: id = 4,name = smile,sex = male

删除:id = 4的这条数据。

Kafka中接收到的数据格式如下:

[kris@hadoop101 ~]$ /opt/module/kafka/bin/kafka-console-consumer.sh --bootstrap-server hadoop101:9092 --topic test

 


{"data":[{"id":"4","name":"smile","sex":"female"}],
    "database":"company","es":1598197042000,"id":1,"isDdl":false,
    "mysqlType":{"id":"int(4)","name":"varchar(255)","sex":"varchar(255)"},
    "old":null,"pkNames":["id"],"sql":"",
    "sqlType":{"id":4,"name":12,"sex":12},
    "table":"staff","ts":1598197042255,
    "type":"INSERT"} {"data":[{"id":"4","name":"smile","sex":"male"}],
    "database":"company","es":1598197317000,"id":2,"isDdl":false,
    "mysqlType":{"id":"int(4)","name":"varchar(255)","sex":"varchar(255)"},
    "old":[{"sex":"female"}],
    "pkNames":["id"],"sql":"",
    "sqlType":{"id":4,"name":12,"sex":12},
    "table":"staff","ts":1598197318118,
    "type":"UPDATE"} {"data":[{"id":"4","name":"smile","sex":"male"}],
    "database":"company","es":1598197330000,"id":3,"isDdl":false,
    "mysqlType":{"id":"int(4)","name":"varchar(255)","sex":"varchar(255)"},
    "old":null,"pkNames":["id"],"sql":"",
    "sqlType":{"id":4,"name":12,"sex":12},
    "table":"staff","ts":1598197330144,
    "type":"DELETE"}

2.4 canal-admin安装

准备

   canal-admin的限定依赖:

(1)MySQL,用于存储配置和节点等相关数据

(2)canal版本,要求>=1.1.4 (需要依赖canal-server提供面向admin的动态运维管理接口)

安装

(1)解压安装

 wget https://github.com/alibaba/canal/releases/download/canal-1.1.4/canal.admin-1.1.4.tar.gz

 mkdir -p /opt/module/canal-admin
 tar -zxvf canal.admin-1.1.4.tar.gz -C /opt/module/canal-admin/

(2)初始化元数据库

[kris@hadoop101 canal-admin]$ vim conf/application.yml
server:
  port: 8089
spring:
  jackson:
    date-format: yyyy-MM-dd HH:mm:ss
    time-zone: GMT+8
spring.datasource:
  address: hadoop101:3306
  database: canal_manager
  username: root
  password: 123456
  driver-class-name: com.mysql.jdbc.Driver
  url: jdbc:mysql://${spring.datasource.address}/${spring.datasource.database}?useUnicode=true&characterEncoding=UTF-8&useSSL=false
  hikari:
    maximum-pool-size: 30
    minimum-idle: 1

canal:
  adminUser: admin
  adminPasswd: admin

 

[kris@hadoop101 software]$ cd /opt/module/canal-admin/

[kris@hadoop101 canal-admin]$ mysql -uroot -p123456
mysql>  source conf/canal_manager.sql

启动canal-admin
[kris@hadoop101 canal-admin]$ sh bin/startup.sh

查看日志
[kris@hadoop101 canal-admin]$ tail -f logs/admin.log 

访问hadoop101 8089端口, 默认账号密码是admin /123456进行登录

[kris@hadoop101 bin]$ rm -rf canal.pid 
启动之后jps
9239 CanalLauncher 检查 vim /bigdata/canal/logs/example.log 中是否有报错

 

3.Canal-admin使用

 3.1 配置启动

配置启动
1)修改配置填写Canal-damin地址 (两台节点都改)
[kris@hadoop101 canal-server]$ vim conf/canal.properties
canal.admin.manager = hadoop101:8089
# admin auto register
canal.admin.register.auto = true
canal.admin.register.cluster =

2)启动Canal-admin [kris@hadoop101 canal-admin]$ sh bin/startup.sh

3)启动Canal-server [kris@hadoop101 canal-server]$ sh bin/startup.sh [kris@hadoop102 canal-server]$ sh bin/startup.sh4)登录页面查看 hadoop101:8089

3.2 集群运维

点击主配置后可以对canal.properies设计出一份全局的配置集群共享,可以创建多个集群

3.3 Server运维

配置项:

  • 所属集群,可以选择为单机 或者 集群。一般单机Server的模式主要用于一次性的任务或者测试任务
  • Server名称,唯一即可,方便自己记忆
  • Server Ip,机器ip
  • admin端口,canal 1.1.4版本新增的能力,会在canal-server上提供远程管理操作,默认值11110
  • tcp端口,canal提供netty数据订阅服务的端口
  • metric端口, promethues的exporter监控数据端口 (未来会对接监控)

 

 

   

3.4 Instance运维

创建instance

 

 

 

 

Canal和Zookeeper对应节点的关系
/otter/canal:canal的根目录
/otter/canal/cluster:整个canal server的集群列表
/otter/canal/destinations:destination的根目录
/otter/canal/destinations/example/running:服务端当前正在提供服务的running节点
/otter/canal/destinations/example/cluster:针对某个destination的工作集群列表
/otter/canal/destinations/example/1001/running:客户端当前正在读取的running节点
/otter/canal/destinations/example/1001/cluster:针对某个destination的客户端列表
/otter/canal/destinations/example/1001/cursor:客户端读取的position信息

 

posted @ 2019-05-12 16:54  kris12  阅读(1143)  评论(0编辑  收藏  举报
levels of contents