Hadoop本地库介绍及相关问题解决方法汇总
1.hadoop本地库的作用是什么?
2.哪两个压缩编码器必须使用hadoop本地库才能运行?
3.hadoop的使用方法?
4.hadoop本地库与系统版本不一致会引起什么错误?
5.$ export HADOOP_ROOT_LOGGER=DEBUG,console有什么作
本帖最后由 pig2 于 2014-3-20 20:46 编辑 目的 鉴于性能问题以及某些Java类库的缺失,对于某些组件,Hadoop提供了自己的本地实现。 这些组件保存在Hadoop的一个独立的动态链接的库里。这个库在*nix平台上叫libhadoop.so. 本文主要介绍本地库的使用方法以及如何构建本地库。 组件 Hadoop现在已经有以下 compression codecs本地组件:
在以上组件中,lzo和gzip压缩编解码器必须使用hadoop本地库才能运行。
hadoop本地库的用法很简单:
bin/hadoop 脚本通过系统属性 -Djava.library.path=<path>来确认hadoop本地库是否包含在库路径里。
检查hadoop日志文件可以查看hadoop库是否正常,正常情况下会看到:
DEBUG util.NativeCodeLoader - Trying to load the custom-built native-hadoop library...
INFO util.NativeCodeLoader - Loaded the native-hadoop library 如果出错,会看到:
INFO util.NativeCodeLoader - Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
支持的平台 已经测试过的GNU/Linux发行版本:
在上述平台上,32/64位Hadoop本地库分别能和32/64位的jvm一起正常运行。
构建Hadoop本地库 Hadoop本地库使用 ANSI C 编写,使用GNU autotools工具链 (autoconf, autoheader, automake, autoscan, libtool)构建。也就是说构建hadoop库的平台需要有标准C的编译器和GNU autotools工具链。请参看 支持的平台。
你的目标平台上可能会需要的软件包:
如果已经满足了上述先决条件,可以使用build.xml 文件,并把其中的compile.native置为 true,这样就可以生成hadoop本地库:
$ ant -Dcompile.native=true <target>
因为不是所有用户都需要Hadoop本地库,所以默认情况下hadoop不生成该库。
你可以在下面的路径查看新生成的hadoop本地库:
$ build/native/<platform>/lib
其中<platform>是下列系统属性的组合 ${os.name}-${os.arch}-${sun.arch.data.model};例如 Linux-i386-32。
使用DistributedCache 加载本地库 用户可以通过 DistributedCache 加载本地共享库,并分发和建立库文件的符号链接。
这个例子描述了如何分发库文件并在从map/reduce任务中装载库文件。
这里要注意:DistributedCache是用来分发应用特定的只读文件和一个jar包的,以供Map-Reduce框架在启动任务和运行的时候使用这些缓冲的文件或者是把第三方jar包添加到其classpath路径中去,要注意的是DistributedCache的使用是有一个前提的,就它会认为这些通过urls来表示的文件已经在hdfs文件系统里面。 下面给出一个具体示例: 1. 配置应用程序的cache,把需要使用的文件上传到DFS中去:
这里要注意的DistriubtedCache分发的文件分成公有与私有文件,公有文件可以给HDFS中的所有用户使用,而私有文件只能被特定的用户所使用,用户可以配置上传文件的访问权限来达到这种效果。 2. 配置JobConf:
3. 在Mapper或者Reducer任务中使用这些文件:
1. 我们知道,新的MP接口使用了Job这个类来对MP任务进行配置,这里使用的时候要注意一点
-------------------------------------------------------------------------------------------------------------------------- hadoop本地库与系统版本不一致引起的错误解决方法
部署hadoop的集群环境为 操作系统 centos 5.8 hadoop版本为cloudera hadoop-0.20.2-cdh3u3 集群中设置支持gzip lzo压缩后,在对压缩文件进行读取或者对输入文件压缩的时候要使用到hadoop的本地库,本地库的默认位置在 $HADOOP_HOME/lib/native/Linux-amd64-64 (64位操作系统) $HADOOP_HOME/lib/native/Linux-i386-32 (32位操作系统) 文件夹中的libhadoop.so文件,就是hadoop的本地库。 如果本地库不存在,或者本地库与当前操作系统的版本不一致的时候,会报下面的错误: 11/09/20 17:29:49 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform… using builtin-java classes where applicable 增加调试信息设置 $ export HADOOP_ROOT_LOGGER=DEBUG,console $ hadoop fs -text /test/data/origz/access.log.gz 2012-04-24 15:55:43,269 WARN org.apache.hadoop.util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable error libhadoop.so /lib64/libc.so.6 required (libc 2.6) /usr/local/hadoop/lib/native/Linux-amd64-64 说明系统中的glibc的版本和libhadoop.so需要的版本不一致导致 查看系统的libc版本 # ll /lib64/libc.so.6 lrwxrwxrwx 1 root root 11 Apr 24 16:49 /lib64/libc.so.6 -> libc-2.5.so 系统中的版本为2.5 将系统中的glibc升级为2.9 下载glibc wget http://ftp.gnu.org/gnu/glibc/glibc-2.9.tar.bz2 下载glibc-linuxthreads wget http://ftp.gnu.org/gnu/glibc/glibc-linuxthreads-2.5.tar.bz2 解压 $tar -jxvf glibc-2.9.tar.bz2 $cd glibc-2.9 $tar -jxvf ../glibc-linuxthreads-2.5.tar.bz2 $cd .. $export CFLAGS="-g -O2" $./glibc-2.9/configure --prefix=/usr --disable-profile --enable-add-ons --with-headers=/usr/include --with-binutils=/usr/bin $make #make install 安装编译过程中需要注意三点: 1、要将glibc-linuxthreads解压到glibc目录下。 2、不能在glibc当前目录下运行configure。 3、加上优化开关,export CFLAGS="-g -O2",否则会出现错误 安装完后,可以查看ls -l /lib/libc.so.6已升级 lrwxrwxrwx 1 root root 11 Apr 24 16:49 /lib64/libc.so.6 -> libc-2.9.so 测试本地库是否升级 $ export HADOOP_ROOT_LOGGER=DEBUG,console $ hadoop fs -text /test/data/origz/access.log.gz 12/04/25 08:54:47 INFO lzo.LzoCodec: Successfully loaded & initialized native-lzo library [hadoop-lzo rev 6bb1b7f8b9044d8df9b4d2b6641db7658aab3cf8] 12/04/25 08:54:47 DEBUG util.NativeCodeLoader: Trying to load the custom-built native-hadoop library... 12/04/25 08:54:47 INFO util.NativeCodeLoader: Loaded the native-hadoop library 12/04/25 08:54:47 INFO zlib.ZlibFactory: Successfully loaded & initialized native-zlib library 12/04/25 08:54:47 DEBUG fs.FSInputChecker: DFSClient readChunk got seqno 0 offsetInBlock 0 lastPacketInBlock false packetLen 132100 可以看到将glibc升级后不再报错,已经成功加载本地库 -------------------------------------------------------------------------------------------------------------------------------------------------另外一例:错误都是一样,可以从中学到解决问题的方法 用官方的Hadoop 2.1.0-beta安装后,每次hadoop命令进去都会抛出这样一个Warning WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 设置logger级别,看下具体原因 export HADOOP_ROOT_LOGGER=DEBUG,console
执行命令file libhadoop.so.1.0.0 libhadoop.so.1.0.0: ELF 32-bit LSB shared object, Intel 80386, version 1 (SYSV), dynamically linked, not stripped 果然是80386,是32位的系统版本,而我的hadoop环境是64位OS 原来直接从apache镜像中下载的编译好的Hadoop版本native library都是32版本的,如果要支持64位版本,必须自己重新编译,这就有点坑爹了,要知道几乎所有的生产环境都是64位的OS YARN官方对于native library的一段话验证了这一点 “The pre-built 32-bit i386-Linux native hadoop library is available as part of the hadoop distribution and is located in the lib/native directory” 重新checkout source code svn checkout http://svn.apache.org/repos/asf/ ... release-2.1.0-beta/ 加上编译native的选项,编译时会根据当前的操作系统架构来生产相应的native库 mvn package -Pdist,native -DskipTests -Dtar 再去native文件下查看所有的file type,已经都是64位版的了,替换线上文件,WARNING消除
|
posted on 2015-12-10 21:22 ilinux_one 阅读(1619) 评论(0) 编辑 收藏 举报