龙空技术网

0471-Oracle Goldengate实时复制Oracle数据到CDH Kafka

Hadoop实操 797

前言:

此刻看官们对“oracle转字符集”大致比较关怀,我们都需要学习一些“oracle转字符集”的相关资讯。那么小编同时在网络上汇集了一些关于“oracle转字符集””的相关文章,希望我们能喜欢,你们快快来了解一下吧!

作者:Thomas Gu

1 Oracle Goldengate概述

Oracle Goldengate(以下简称OGG)是业界广泛使用的准实时数据复制软件,主要基于数据库日志进行变更数据的抽取,也就是我们常说的CDC(change data capture)的能力,Goldengate的优势主要体现支持各种异构环境下的数据复制,对生产库的影响最低(基于日志读取,非Sqoop这样直接查询数据的方式,同时可以支持remote capture)。

OGG的架构图如下:

1.1兼容性列表

Goldengate能够支持源端数据抽取和目标数据投递的种类和平台非常的多,几乎涵盖了目前主流的各种数据平台。

源端

Oracle\MySQL\Mariadb\SQLServer\Sybase\DB2(LUW/i-Series/zOS)\JMS\Nonstop SQLMX\Informix等

目标端

除了上述之外,还可以支持Hadoop\File\Teradata\ MongoDB\Elasticsearch\Greenplum\Netezza\Cassandra等

云端

除了支持Oracle Cloud之外,还支持Amazon RDS、Amazon Kinessis、Amazon S3上的相关数据库和大数据的远程抽取和投递;

后续版本

支持PostgreSQL的抽取;

支持Kudu的投递;

可以通过Oracle的官网链接来查询兼容性列表情况:

OGG 18C:
OGG 12.3: 

因为OGG 18c版本最近刚发布,从兼容性列表来看,还没有发布支持Hadoop平台的For Bigdata版本,所以本文选择源端用OGG 18c版进行Oracle数据库数据的抽取,而目标用OGG 12.3 for Bigdata投递到CDH 5.14中。

OGG 18c兼容性列表中支持Oracle的版本:

OGG 12.3 For Bigdata支持CDH的版本:

可以支持向HDFS、Hive、HBase、Flume、Kafka进行复制,做为系列文章的第一篇,我们首先选择向Kafka进行复制。

1.2下载介质

OGG下载链接:

源:

目标:

2

配置Oracle Goldengate

下面就开始Oracle Goldengate实现Oracle11204向CDH5.14 Kafka的数据复制链路

2.1环境信息

源端

目标

数据库版本

Oracle11.2.0.4

CDH 5.14 (Apache 0.10.2)

操作系统

CentOS 7.4 6 4bit

CentOS 7.4 64bit

OGG版本

18.1

12.3.2.1

2.2源端配置

1.数据库前提条件:

调整数据库参数

alter system set enable_goldengate_replication=true scope=both;
开启数据库附加日志和force logging
alter database add supplemental log data;alter database force logging;

设置后,查询数据库最小附加日志已经打开:

启用归档(测试环境可以不用,生产环境建议启用)创建用户

需要在Oracle数据中创建一个Goldengate,用于保存OGG的元数据信息,建议为该用户配置独立的数据表空间;同时该用户的权限请参考链接:

这里我们简化,直接授权DBA角色给该用户:

执行dbms_goldengate_auth.grant_admin_privilege

BEGINdbms_goldengate_auth.grant_admin_privilege(grantee => 'oggadmin',privilege_type => 'CAPTURE',grant_select_privileges => TRUE,do_grants => TRUE);END;/
配置数据库stream pool

OGG对oracle数据库的抽取模式有2种:classic模式和Integrated模式。从OGG 18c开始classic模式不再有新的发展,从支持层面Integrated模式比classic模式支持的对象类型更广,限制更少,同时可以支持部署远程抽取模式,所以我们后面用配置的是Integrated模式。

而Integrated模式是直接对接logmining server来获取数据的变化,是通过XStream接口接入的:

所以要配置数据库的stream pool size,如果不指定stream_pool_size的大小,默认是Oracle自动在SGA中分配的:

这里只有32M,在后续配置Integrated模式中在OGG抽取参数需要配置max_sga_size参数(如果不配置,默认是1GB)的值一个不注意就会有冲突,这里可以先调整streams_pool_size=512M,而可以设置max_sga_size为200MB,具体如何调整,这个我们后续的文章会解释。

2.源端OGG安装

可以支持GUI和静默安装,我们这里使用静默安装。

解压配置oggcore.rsp文件

修改其中几个参数:

INSTALL_OPTION=ORA11gSOFTWARE_LOCATION=/home/oracle/ogghomeINVENTORY_LOCATION=/home/oracle/ogghome/inventoryUNIX_GROUP_NAME=oinstall
开始静默安装

注意:ogg的安装目录必须为空,所以创建一个新的目录:/home/oracle/ogghome

运行安装:

./runInstaller -silent -responseFile /home/oracle/oggsoftware/fbo_ggs_Linux_x64_shiphome/Disk1/response/oggcore.rsp
配置环境变量

Linux下设置:

创建ogg相关目录

3.配置源端MGR进程

PORT 7809DYNAMICPORTLIST 7810-7849PURGEOLDEXTRACTS ./dirdat/*, USECHECKPOINTS, MINKEEPDAYS 3LAGREPORTHOURS 1LAGINFOMINUTES 30LAGCRITICALMINUTES 45

启动MGR进程:

4.配置credentialstore,使得用户的密码不是明文

add credentialstorealter credentialstore add user oggadmin password oracle alias oggadmininfo credentialstore

5.配置源端抽取和传输进程(Integrated模式)

查询源端数据库字符集(该步骤可选)

查询一下oracle字符集:

增加要复制对象的附件日志

检查一下表的trandata是否enable:

编辑源端抽取进程参数文件

extract extauseridalias oggadmin setenv (ORACLE_HOME = /u01/app/oracle/product/11.2.0/dbhome_1)setenv (ORACLE_SID = testdb1)setenv (NLS_LANG = AMERICAN_AMERICA.AL32UTF8)exttrail ./dirdat/stdiscardfile ./dirrpt/exta.dsc,APPEND,MEGABYTES 100tranlogoptions integratedparams (max_sga_size 200, parallelism 1)reportcount every 1 minutes, ratelogallsupcolsddl include mapped #这里启用ddl抽取,范围是mappedTABLE scott.*;
编辑源端传输进程参数文件
extract dparmthost allinone.thomasgu.com mgrport 7809rmttrail ./dirdat/rtpassthrureportcount every 1 minutes, ratetable scott.*

Note:提前在/etc/hosts中配置好目标主机名的解析,或者直接用目标主机的ip也可以。

创建抽取进程和传输进程

dblogin useridalias oggadminregister extract exta databaseadd extract exta, integrated tranlog, begin nowadd exttrail ./dirdat/st, extract exta, megabytes 100add extract dpa, exttrailsource ./dirdat/stadd rmttrial ./dirdat/rt, extract dpa, megabytes 100
启动源端抽取进程exta

检查状态,发现exta进程启动后,会stop掉

检查一下为什么会stop:

执行一下

GGSCI>view report exta

因为源库是11204版,没有打过任何的patch,所以这里需要apply一下p17030189_112040_Generic的patch

unzip p17030189_112040_Generic.zip/u01/app/oracle/product/11.2.0/dbhome_1/OPatch/opatch lsinventorycd 17030189/u01/app/oracle/product/11.2.0/dbhome_1/OPatch/opatch apply/u01/app/oracle/product/11.2.0/dbhome_1/OPatch/opatch lsinventory

数据库中还需要运行:

$ sqlplus /nologSQL> CONNECT / AS SYSDBASQL> @?/sqlpatch/17030189/postinstall.sql

此时再启动抽取进程:

启动源端传输进程

直接在GGSCI中执行:GGSCI>start DPANote:要先保证目标OGG的MGR进程启动好之后,源端的传输进程才能运行正常,否则状态会stop,看report记录会提示连接不上目标的collector进程。

2.3目标端配置

运行OGG For Bigdata需要JDK1.8的环境。

因为CDH 5.14安装默认使用了JDK1.7的包,所以我们部署采用了remote delivery的方式向Kafka进行投递,将OGG for Bigdata也安装在了Oracle所在的这台机器上,这样对CDH集群也是无侵入的,在生产环境这样的方式应该是更加合适的。

也就说现在OGG For Bigdata和OGG for Oracle安装在了同一台机器上。

所以这里需要注意:

(1)前面配置传输进程dpa就不用启动了,因为用不到了,目标OGG for bigdata进程直接读取OGG for oracle的抽取进程落地下来的队列文件(st作为前缀的文件);

(2)OGG for bigdata的MGR进程就不能使用和OGG for Oracle相同的端口号了,因为一台主机上是不能启动两个同样port的MGR的。

(3)正常情况,如果OGG for oracle和OGG for Bigdata不在同一台主机上,就按照前面配置的方式,目标MGR进程和源端MGR进程配置相同的port,dpa进程rmthost参数连接目标同样的MGR端口即可。

1.目标端安装JDK 1.8

vi /etc/profileexport JAVA_HOME=/usr/java/jdk1.8.0_162export JRE_HOME=/usr/java/jdk1.8.0_162/jreexport PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATHexport CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH

2.配置OGG For Bigdata

解压OGG for bigdata到一个新的目录oggbigdatahome

unzip OGG_BigData_Linux_x64_12.3.2.1.1.zip -d oggbigdatahome cd oggbigdatahometar xvf OGG_BigData_Linux_x64_12.3.2.1.1.tar
指定环境变量

执行for bigdata的ggsci的时候,会提示libjvm.so加载错误。

所以需要把libjvm.so文件也加入到环境变量LD_LIBRARY_PATH中,libjvm.so是在:

/usr/java/jdk1.8.0_162/jre/lib/amd64/server/目录下

然后再次执行ggsci:

创建OGG for bigdata相关目录创建OGG for bigdata的MGR进程(注意前面的注意说明,因为把OGG for Bigdata和OGG for Oracle安装在同一台主机上,这里用了和源端MGR不一样的port)

PORT 8809DYNAMICPORTLIST 8810-8849PURGEOLDEXTRACTS ./dirdat/*, USECHECKPOINTS, MINKEEPDAYS 3LAGREPORTHOURS 1LAGINFOMINUTES 30LAGCRITICALMINUTES 45

启动MGR进程

准备目标投递到Kafka的进程的相关文件

从OGG for Bigdata目录可以看出有两种Kafka的投递方法:

我们使用kafka这种方式,kafka_connect下一篇文章介绍:

在/home/oracle/oggbidatahome/dirprm下编辑上面的3个文件:

具体参数的含义可以查询OGG for Bigdata官方手册,这里只修改了几个必要的参数。

(1) rkafka.prm

(2) kafka.props

(3)custome_kafka_producer.properties

复制cdh中的kafka jar文件到OGG for bigdata中定义的目录下

只需要一个jar包即可:kafka-clients-0.10.2-kafka-2.2.0.jar

创建CDH kafka中的topic

/opt/cloudera/parcels/KAFKA-2.2.0-1.2.2.0.p0.68/lib/kafka/bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 2 --topic oggtopic1

这里设置2个partition是为了后面一些参数校验。

创建目标端投递进程

add replicat rkafka, exttrail /home/oracle/ogghome/dirdat/st注意:这里是读取的ogg for oracle的抽取进程落地的队列文件st,原因已经解释多次了。

到这里就完成源和目标的OGG配置,下面我们简单测试一下复制链路是否正常。

2.4验证复制情况

源端提交一些sql语句,看是否能够复制到kafka topic中:

conn scott/oracleinsert into dept values(1,'A','SH');insert into dept values(2,'B','SH');insert into dept values(3,'C','SH');insert into dept values(4,'D','SH');insert into dept values(5,'E','SH');insert into dept values(6,'F','SH');insert into dept values(7,'G','SH');insert into dept values(8,'H','SH');insert into dept values(9,'I','SH');insert into dept values(11,'J','SH');commit;
检查Kafka中消费端:

往后面拉一点:

上面是一个小的JAVA文件,用于监控消费端的信息,可以看到,已经消费到了10条消息,且按照partition基本是均匀分配的。在OGG for bigdata中有很多参数可以控制kafka分发消息的规则,后续文章我们也会简单介绍一下。

从cloudera manager中检查

测试集群只启动了zookeeper和kafka:

当前kafka的版本:

Kafka的oggtopic1是有消息投递过来的:

从OGG for Bigdata检查复制情况

明显有10条insert操作提交到kafka

3

总结

通过配置OGG for Oracle和OGG for bigdata,完成基于日志抽取方式将数据变更从Oracle复制到CDH Kafka,可以解决直接通过sqoop类似直接读取数据的手段对源库性能开销的问题,同时是准实时的抽取,延迟低,复制效率高。

后续我们会介绍如何使用OGG完成全量数据抽取到Kafka,以及相关参数配置,实现不同的partition分发策略,kerberos环境下的复制;以及到Hbase、Hive等的复制。

标签: #oracle转字符集