dataX源码学习
前言
在用dataX一段时间后,还是想去了解一下它的具体原理,读源码还是得做一些笔记,可能我写的不是很好,如果有写错的话,还请大家多多指教。
开始准备
首先在阅读源码之前,需要先把DataX的源码clone下来,然后再用maven来进行打包,我这边的话在准备时也遇到一些jar找不到的问题,如果有需要的jar包的话,可以在下面提出来,我这边就放一个stream的jar包就好。
git clone https://github.com/alibaba/DataX.git
然后再IDEA里面打开,然后,在datax-all使用maven进行打包,选择clean和package两个选项,进行打包
然后在core部分就可以看到打包出来了,我们可以将这个文件拷出来,然后再新建一个目录plugin文件,再建两个子目录,然后把相应需要的writer和reader的jar添加到相应的文件夹下。
完成上面后,我们需要修改一些配置文件,首先需要修改core.json,位于core打包出来的conf文件夹里面,byte不能设为-1
添加需要的jar包,我把stream的jar放在下面的链接中了。
运行配置
需要的配置,将你的配置文件位置设置出来和你刚刚打包出来的dataX的位置,我们的是放在E盘
-Ddatax.home=E:/datax
-mode standalone -jobid -1 -job E:/datax/job/job.json
然后点击运行就可以查看到结果了。
开始运行
首先我们从Engine主类,位于datax-core包下面,java包下面,我们可以找到入口Engine类
我们先从args获取到我们输入 的参数。
public static void main(String[] args) throws Exception {
int exitCode = 0;
try {
Engine.entry(args);
} catch (Throwable e) {
exitCode = 1;
LOG.error("\n\n经DataX智能分析,该任务最可能的错误原因是:\n" + ExceptionTracker.trace(e));
if (e instanceof DataXException) {
DataXException tempException = (DataXException) e;
ErrorCode errorCode = tempException.getErrorCode();
if (errorCode instanceof FrameworkErrorCode) {
FrameworkErrorCode tempErrorCode = (FrameworkErrorCode) errorCode;
exitCode = tempErrorCode.toExitValue();
}
}
System.exit(exitCode);
}
System.exit(exitCode);
}
通过ConfigParser来进行job.json的解析,先从参数中获取到工作文件的路径,然后再通过FileUtils.readFileToString部分读入job.json配置文件
// 如果用户没有明确指定jobid, 则 datax.py 会指定 jobid 默认值为-1
String jobIdString = cl.getOptionValue("jobid");
RUNTIME_MODE = cl.getOptionValue("mode") ;
// jobPath是job.json的配置路径
Configuration configuration = ConfigParser.parse(jobPath);
然后在ConfigParser.java中将配置文件读入进来,获取到我们从json中提交的content部分和settings
这里它是怎么获取这些配置呢,package com.alibaba.datax.core.util.container.CoreConstant中会中会有一些全局的变量配置,我列举一些出来
// reader 的名称
public static final String DATAX_JOB_CONTENT_READER_NAME = "job.content[0].reader.name";
// reader的参数
public static final String DATAX_JOB_CONTENT_READER_PARAMETER = "job.content[0].reader.parameter";
// writer的名称
public static final String DATAX_JOB_CONTENT_WRITER_NAME = "job.content[0].writer.name";
// writer的参数
public static final String DATAX_JOB_CONTENT_WRITER_PARAMETER = "job.content[0].writer.parameter";
获取到需要的reader和writer参数,通过官方的注释我们也可以看出这里是为了获取对应插件的名称,我们提交的官方的一个demo,所以这里获取到的也是我们定义的streamreader和streamwriter
获取到配置文件后,下面就用doValidate来校验这个这些配置文件
下面为Validate的内容,这里看到都是空的,这个是为什么,因为我们的是stream流,限制不多,如果是在前面是涉及采集其他数据库的话,可能这里就需要校验一些配置是否合理了。
校验好配置文件后,调用start方法,开始进行容器执行,首先先判断是不是一个job文件,然后如果是job的话,就启动一个JobContainer,否则就启动一个TaskGroupContainer,在获取到需要的配置后,就调用一个start方法,执行这个容器。
从下面这张图可以看出,我们提交的配置文件信息都保存到这个configuration这个配置对象中了。
JobContainer
JobContainer主要有以下的过程
-
doPrepare,首先需要先处理前操作,
-
init,初始化Reader和Writer,先Reader再Writer
-
prepare
-
split
-
scheduler
1.进入init
初始化Reader和Writer,先是Reader,然后再是Writer, 通过获取到Reader,然后可以
然后解析content里面reader的模块,
调用initReader读取reader配置文件
首先处理好列,可以获取到我们设定列的信息
writer也是同样的道理
prepare
this.prepareJobReader();
this.prepareJobWriter();
prepare阶段需要对数据进行spilt
needChannelNumberByByte =
(int) (globalLimitedByteSpeed / channelLimitedByteSpeed);
计算需要的任务的数量,reader和writer的数量应该是一致的
然后再得出Reader和Writer的分组配置
分割后我们可以看到,任务的reader和writer的信息和对应的TaskId都被整合到一起了。
schedule
这里CoreConstant.DATAX_CORE_CONTAINER_TASKGROUP_CHANNEL,为我们定义的通道的值,如果没有设置就默认设置为5,需要的通道数量就通过一个task的数量和需要通道的数量取一个最小值
post阶段
这个阶段会触发Reader和Writer的post阶段
this.invokeHooks();
打印运行情况
包括Cpu和GC的统计,包括错误记录的条数呀,速度等打印出来。
总结
做一些笔记吧,这样可以可以让自己的印象更加深刻一下,这里并没有详细介绍调度执行的部分,写的比较糙,但是如果一直跟着debug下来还是可以对dataX的源码有一些更加好的理解的。