前言:
目前兄弟们对“mysql数据传输”可能比较注意,看官们都想要知道一些“mysql数据传输”的相关文章。那么小编同时在网摘上收集了一些对于“mysql数据传输””的相关知识,希望姐妹们能喜欢,姐妹们快快来了解一下吧!技术是什么?就是拿来玩的,边玩边学,才能成长得更快。
之前已经给大家讲解了 MySQL 同步 ES 的几种方案,下面就教大家如何通过 Canal,将 MySQL 同步到 ES,文章内容绝对妥妥干货!
本文会先讲解需要用到的基础知识,然后再是软件安装,最后就是实战部分。
不 说,上文章目录:
01 基础知识1.1 主从复制原理
MySQL 的主从复制是依赖于 binlog,也就是记录 MySQL 上的所有变化并以二进制形式保存在磁盘上二进制日志文件。
主从复制就是将 binlog 中的数据从主库传输到从库上,一般这个过程是异步的,即主库上的操作不会等待 binlog 同步地完成。
详细流程如下:
主库写 binlog:主库的更新 SQL(update、insert、delete) 被写到 binlog;主库发送 binlog:主库创建一个 log dump 线程来发送 binlog 给从库;从库写 relay log:从库在连接到主节点时会创建一个 IO 线程,以请求主库更新的 binlog,并且把接收到的 binlog 信息写入一个叫做 relay log 的日志文件;从库回放:从库还会创建一个 SQL 线程读取 relay log 中的内容,并且在从库中做回放,最终实现主从的一致性。1.2 Cannel 基础
Canel 是一款常用的数据同步工具,其原理是基于 Binlog 订阅的方式实现,模拟一个 MySQL Slave 订阅 Binlog 日志,从而实现 CDC(Change Data Capture),将已提交的更改发送到下游。
主要流程如下:
Canal 服务端向 MySQL 的 master 节点传输 dump 协议;MySQL 的 master 节点接收到 dump 请求后推送 Binlog 日志给 Canal 服务端,解析 Binlog 对象(原始为 byte 流)转成 Json 格式;Canal 客户端通过 TCP 协议或 MQ 形式监听 Canal 服务端,同步数据到 ES。
下面是 Cannel 执行的核心流程,其中 Binlog Parser 主要负责 Binlog 的提取、解析和推送,EventSink 负责数据的过滤 、路由和加工,仅作了解即可。
02 软件下载安装
我的电脑是 Macos-x64,所以后面的软件安装,都是基于这个。
2.1 Java JDK官网:JDK 版本:11.0.19
由于 Canal 和 ES 的安装,都强依赖 JDK,所以这里有必要先说明。
前方高能,这里有坑!!!
如果你选的版本不对,ES 安装可能会失败,然后 Canal 同步数据到 ES 时,也会出现很多诡异的问题。
2.2 MySQL
MySQL 大家应该都安装了,这里需要打开 MySQL 的 BinLog。
我是 Mac,主要新建一个 my.cnf 文件,然后再重启 MySQL。
这里重启 MySQL,我搞了半天,BinLog 开启后,会看到 BinLog 日志。
然后需要创建一个账号,账号和密码都是 Cannal,给后面 Canal 使用。
GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'canal'@'localhost' IDENTIFIED BY 'canal' ;2.3 Canal官网:版本:v1.1.6
下载 canal.adapter 和 canal.deployer 两个就可以:
canal.deployer:相当于 canal 的服务端,启动它才可以在客户端接收数据库变更信息。canal.adapter:增加客户端数据落地的适配及启动功能(当 deployer 接收到消息后,会根据不同的目标源做适配,比如是 es 目标源适配和 hbase 适配等等)。
备注:canal.admin 为 canal提供整体配置管理、节点运维等面向运维的功能,提供相对友好的 WebUI 操作界面,方便更多用户快速和安全的操作,我这边使用的是单机的,因此就没有下载安装,大家也可以拉 source code 源码去研究下。
2.4 ESES 官网:ES 版本:7.17.4
Mac 安装 ES 非常简单:
brew install elasticsearch
安装细节不赘述,安装成功后,输入以下网址:
2.5 Kibana下载网址:版本:7.14.0它是 ES 的界面化操作工具,安装细节不赘述,安装成功后,输入以下网址:
2.6 IK 分词器下载网址:版本:v7.17.2它是 ES 的分词器,安装细节不赘述,安装成功后,可以验证一下分词效果。
2.7 小节
MySQL 开启 BinLog,这个不难,主要观察是否有 BinLog 日志。
Canal 的安装是最复杂的,涉及到很多配置修改,后面会讲解。
最后是 ES + Kibana + IK 分词器,这个其实也不难,主要关注 ES 绑定的 JDK 版本,三款软件的安装可以参考这篇:
03 Canal 配置3.1 canal.deployer 配置
修改 conf—>example 文件夹的 instance.properties 监听的数据库配置。
这里主要修改的监听 MySQL 的 URL、用户名和密码。
这里默认的账号密码就是 canal,前面已经教大家如何创建了。
3.2 canal.deployer 启动
在 canal.deployer 中的 bin 文件下去启动命令 startup.sh
这样就代表已经启动了,我们可以去看下启动日志。
上面 start successful 代表已经启动成功,并且已经监听我的 MySQL 数据库。
3.3 canal.adapte 配置
Step1: 先把 adapter 下面的 bootstrap.yml,全部注释掉,否则会提示你 XX 表不存在,这里坑了我好惨。
Step2: 再修改 adapter 的 application.yml 配置文件。
这里的坑,一般就是 mysql 的账号密码不对,或者给的 es 链接,没有";前缀,这些都是我过踩的坑。
Step3: 修改我们在 application.yml 中配置的目标数据源 es7 文件夹内容。
由于我们这里是对表 article 进行去监听,因此我们在 es7 文件夹中去创建 article.yml 文件。
由于我们需要把技术派项目中的文章查询功能,改造成 ES 的查询方式,所以我们就把技术派的文章表 article,同步到 ES 中。
yml文件配置如下:
dataSourceKey: defaultDS # 源数据源的key, 对应上面配置的srcDataSources中的值destination: example # canal的instance或者MQ的topicgroupId: g1 # 对应MQ模式下的groupId, 只会同步对应groupId的数据esMapping: _index: article # es 的索引名称 _id: _id # es 的_id, 如果不配置该项必须配置下面的pk项_id则会由es自动分配 sql: "SELECT t.id AS _id,t.id,t.user_id,t.article_type,t.title,t.short_title,t.picture, t.summary,t.category_id,t.source,t.source_url,t.offical_stat,t.topping_stat, t.cream_stat,t.`status`,t.deleted,t.create_time,t.update_time FROM article t" # sql映射 commitBatch: 1 # 提交批大小
Step4: 在 Kibana 中创建 ES 的 article 索引
代码如下:
PUT /article{ "mappings" : { "properties" : { "id" : { "type" : "integer" }, "user_id" : { "type" : "integer" }, "article_type" : { "type" : "integer" }, "title" : { "type" : "text", "analyzer": "ik_max_word" }, "short_title" : { "type" : "text", "analyzer": "ik_max_word" }, "picture" : { "type" : "text", "analyzer": "ik_max_word" }, "summary" : { "type" : "text", "analyzer": "ik_max_word" }, "category_id" : { "type" : "integer" }, "source" : { "type" : "integer" }, "source_url" : { "type" : "text", "analyzer": "ik_max_word" }, "offical_stat" : { "type" : "integer" }, "topping_stat" : { "type" : "integer" }, "cream_stat" : { "type" : "integer" }, "status" : { "type" : "integer" }, "deleted" : { "type" : "integer" }, "create_time" : { "type" : "date" }, "update_time" : { "type" : "date" } } } }3.4 canal.adapte 启动
我们看下启动日志:
上面没有任何报错,并且已经启动了 8081 端口,说明已经启动成功,此时我们就可以操作了。
04 数据同步实战4.1 全量同步
在开始 adapter 之后,我们应该先来一把全量数据同步,在源码中提供了一个接口进行全量同步,命令如下:
curl -X POST
上面就是执行同步成功后,提示已经导入 10 条。
4.2 增量同步
增量数据就是当我在 MySQL 中 update、delete 和 insert 时,那么 ES 中数据也会对应发生变化,我下面演示下修改:
日志打印如下:
ES查询结果如下:
上面结果中说明 ES 已经更改成功。
05 总结
我们再回顾一下整体执行流程:
写到这里,就结束了,是不是满满的干货呢?基本是手把手教你如何将 MySQL 同步到 ES,不仅是增量同步,还包括全量同步,如果你的项目也需要用到该场景,基本可以直接照搬。
原文:
作者:楼仔
如果感觉本文对你有帮助,点赞关注支持一下
标签: #mysql数据传输