源码编译
一、搭建编译环境
一般编译环境为Linux + JDK + Maven,有些框架可能需要别的环境支持,一般都会注明,在后面细说。以下教程都是基于Linux + JDK8环境编译。
-
Linux和JDK环境这里不再赘述
-
MAVEN环境搭建
#1. 从apache网站拉取tar包并解压 MVNTAR=$(curl http://maven.apache.org/download.cgi | grep -E ">apache-maven-.*bin\.tar\.gz<" | sed 's/.*a href="\(.*\)".*/\1/g') curl $MVNTAR | tar zxC /opt/module mv /opt/module/$(basename $MVNTAR | cut -d - -f 1,2,3) /opt/module/maven #2. 配置环境变量 vim /etc/profile.d/my_env.sh #添加如下内容并保存退出 export M2_HOME=/opt/module/maven export MAVEN_HOME=/opt/module/maven export PATH=${MAVEN_HOME}/bin:${PATH}
完成后重启Xshell会话
二、下载源码
下载你想要编译的框架的源码。一般源码下载有两种方式:
-
想编译的版本已经发布release版,但是由于兼容性原因需要重新编译。这种情况直接从框架官网下载源码包并解压即可。
-
想测试框架还没发布的最新功能。此时从git托管服务器拉取最新源码,这时,我们需要git环境
-
Git环境搭建
sudo yum install -y epel-release sudo yum install -y git
-
到 https://git-wip-us.apache.org/repos/asf 查看想要编译的框架的git服务器,拉取源码(以Hive为例)
#新建源码存储目录 mkdir -p /opt/software/source cd /opt/software/source #拉取源码 git clone https://git-wip-us.apache.org/repos/asf/hive.git
-
进入拉取的源码目录,切换到自己想要的分支
#查看所有本地和远程分支,这里也可以切换到之前版本的分支 cd hive git branch -a #新建本地分支同步远程分支 git checkout -b 3.1 origin/branch-3.1
-
如果想切换到特定release的源码,使用git tag命令
#查看所有tag git tag #切换到想要的tag,这里以release-3.1.2为例 git checkout rel/release-3.1.2
三、查看编译说明
一般来说,源码根目录都会有building.txt之类的文件作为编译说明,如果没有找到,也可以去官网查看编译说明。说明里一般都会注明前置要求,例如一些额外的编译环境要求等。
Hive没有前置要求,我们直接进入第四步
四、对源码做必要修改
一般我们只有在框架不兼容的情况下我们需要重新编译,不兼容一般是由于框架依赖版本不一致造成的,一般我们只需要编辑框架的pom.xml文件修改依赖版本即可。但是有些依赖新版本和旧版本不兼容,此时我们就需要对源码进行更多的修改。这些修改最好在IDE中进行。
Hive的guava版本和Hadoop 3.1.3的不兼容,我们修改其为27.0-jre
将 <guava.version>19.0</guava.version> 修改为 <guava.version>27.0-jre</guava.version>
这个依赖新老版本就不兼容,修改版本后我们需要对源码进行必要修改。详细修改步骤会在另外一篇教程中讲述
五、编译
准备工作全部做完,最后我们开始编译。一般的编译命令为:
mvn clean package -Pdist -DskipTests -Dmaven.javadoc.skip=true
然后静待编译完成。这个过程会比较久,而且会从maven官网拉取大量jar包,所以要保证网络状况良好。
编译完成的Tar包的位置,各个框架都不一样,我们可以用下面的命令查找
find ./ -name *.tar.gz
-
拉取源码
cd /opt/software/source git clone https://git-wip-us.apache.org/repos/asf/hive.git
-
修改pom.xml,将guava的版本改为如下版本
<guava.version>27.0-jre</guava.version>
-
修改以下文件中关于 com.google.common.util.concurrent.Futures#addCallback 的调用
-
src\java\org\apache\hadoop\hive\llap\AsyncPbRpcProxy.java
//173行 Futures.addCallback( future, new ResponseCallback<U>( request.getCallback(), nodeId, this) ,executor); //278行 Futures.addCallback(requestManagerFuture, new FutureCallback<Void>() { @Override public void onSuccess(Void result) { LOG.info("RequestManager shutdown"); } @Override public void onFailure(Throwable t) { if (!(t instanceof CancellationException)) { LOG.warn("RequestManager shutdown with error", t); } } }, requestManagerExecutor);
-
src\java\org\apache\hadoop\hive\llap\daemon\impl\AMReporter.java
//162行 Futures.addCallback(queueLookupFuture, new FutureCallback<Void>() { @Override public void onSuccess(Void result) { LOG.info("AMReporter QueueDrainer exited"); } @Override public void onFailure(Throwable t) { if (t instanceof CancellationException && isShutdown.get()) { LOG.info("AMReporter QueueDrainer exited as a result of a cancellation after shutdown"); } else { LOG.error("AMReporter QueueDrainer exited with error", t); Thread.getDefaultUncaughtExceptionHandler().uncaughtException(Thread.currentThread(), t); } } }, queueLookupExecutor); //266行 Futures.addCallback(future, new FutureCallback<Void>() { @Override public void onSuccess(Void result) { LOG.info("Sent taskKilled for {}", taskAttemptId); } @Override public void onFailure(Throwable t) { LOG.warn("Failed to send taskKilled for {}. The attempt will likely time out.", taskAttemptId); } }, executor); //331行 Futures.addCallback(future, new FutureCallback<Void>() { @Override public void onSuccess(Void result) { // Nothing to do. } @Override public void onFailure(Throwable t) { QueryIdentifier currentQueryIdentifier = amNodeInfo.getQueryIdentifier(); amNodeInfo.setAmFailed(true); LOG.warn("Heartbeat failed to AM {}. Marking query as failed. query={}", amNodeInfo.amNodeId, currentQueryIdentifier, t); queryFailedHandler.queryFailed(currentQueryIdentifier); } }, executor);
-
src\java\org\apache\hadoop\hive\llap\daemon\impl\LlapTaskReporter.java
//131行 Futures.addCallback(future, new HeartbeatCallback(errorReporter), heartbeatExecutor);
-
src\java\org\apache\hadoop\hive\llap\daemon\impl\TaskExecutorService.java
//178行 Futures.addCallback(future, new WaitQueueWorkerCallback(), executionCompletionExecutorServiceRaw); //692行 Futures.addCallback(future, wrappedCallback, executionCompletionExecutorService);
-
src\java\org\apache\hadoop\hive\llap\tezplugins\LlapTaskSchedulerService.java
//747行 Futures.addCallback(nodeEnablerFuture, new LoggingFutureCallback("NodeEnablerThread", LOG),nodeEnabledExecutor); //751行 Futures.addCallback(delayedTaskSchedulerFuture, new LoggingFutureCallback("DelayedTaskSchedulerThread", LOG),delayedTaskSchedulerExecutor); //755行 Futures.addCallback(schedulerFuture, new LoggingFutureCallback("SchedulerThread", LOG),schedulerExecutor);
-
src\java\org\apache\hadoop\hive\ql\exec\tez\WorkloadManager.java
//1089行 Futures.addCallback(future, FATAL_ERROR_CALLBACK, timeoutPool); //1923行 Futures.addCallback(getFuture, this,timeoutPool); //1977行 Futures.addCallback(waitFuture, this, timeoutPool);
-
src\test\org\apache\hadoop\hive\ql\exec\tez\SampleTezSessionState.java
//121行 Futures.addCallback(waitForAmRegFuture, new FutureCallback<Boolean>() { @Override public void onSuccess(Boolean result) { future.set(session); } @Override public void onFailure(Throwable t) { future.setException(t); } },timeoutPool);
-
-
编译
mvn clean package -Pdist -DskipTests -Dmaven.javadoc.skip=true
-
拉取源码
cd /opt/software/source
git clone https://git-wip-us.apache.org/repos/asf/tez.git -
安装Tez必要环境
sudo yum install -y protobuf protobuf-static protobuf-devel
-
编译
查看编译说明,按照编译说明用下列命令编译
cd tez
mvn clean package -Dhadoop.version=3.1.3 -Phadoop28 -P\!hadoop27 -DskipTests -Dmaven.javadoc.skip=true
-
拉取源码
cd /opt/software/source
git clone https://git-wip-us.apache.org/repos/asf/phoenix.git
-
编译
cd phoenix
mvn clean package -DskipTests -Dhbase.profile=2.2 -Dhbase.version=2.2.4
-
去spark官网下载源码,解压到/opt/software/source
-
进入该目录,编译
./dev/make-distribution.sh --name without-hive --tgz -Pyarn -Phadoop-3.1 -Dhadoop.version=3.1.3 -Pparquet-provided -Porc-provided -Phadoop-provided