Hadoop Streaming cacheFile 和cacheArchive选项
Hadoop Streaming中的大文件和档案
任务使用-cacheFile和-cacheArchive选项在集群中分发文件和档案,选项的参数是用户已上传至HDFS的文件或档案的URI。这些文件和档案在不同的作业间缓存。用户可以通过fs.default.name.config配置参数的值得到文件所在的host和fs_port。
这个是使用-cacheFile选项的例子:
-cacheFile hdfs://host:fs_port/user/testfile.txt#testlink
在上面的例子里,url中#后面的部分是建立在任务当前工作目录下的符号链接的名字。这里的任务的当前工作目录下有一个“testlink”符号链接,它指向testfile.txt文件在本地的拷贝。如果有多个文件,选项可以写成:
-cacheFile hdfs://host:fs_port/user/testfile1.txt#testlink1 -cacheFile hdfs://host:fs_port/user/testfile2.txt#testlink2
-cacheArchive选项用于把jar文件拷贝到任务当前工作目录并自动把jar文件解压缩。例如:
-cacheArchive hdfs://host:fs_port/user/testfile.jar#testlink3
在上面的例子中,testlink3是当前工作目录下的符号链接,它指向testfile.jar解压后的目录。
下面是使用-cacheArchive选项的另一个例子。其中,input.txt文件有两行内容,分别是两个文件的名字:testlink/cache.txt和testlink/cache2.txt。“testlink”是指向档案目录(jar文件解压后的目录)的符号链接,这个目录下有“cache.txt”和“cache2.txt”两个文件。
$HADOOP_HOME/bin/hadoop jar $HADOOP_HOME/hadoop-streaming.jar /-input "/user/me/samples/cachefile/input.txt" /
-mapper "xargs cat" /
-reducer "cat" /
-output "/user/me/samples/cachefile/out" /
-cacheArchive 'hdfs://hadoop-nn1.example.com/user/me/samples/cachefile/cachedir.jar#testlink' /
-jobconf mapred.map.tasks=1 /-jobconf mapred.reduce.tasks=1 /-jobconf mapred.job.name="Experiment"
$ ls test_jar/cache.txt cache2.txt$ jar cvf cachedir.jar -C test_jar/ .added manifestadding: cache.txt(in = 30) (out= 29)(deflated 3%)adding: cache2.txt(in = 37) (out= 35)(deflated 5%)$ hadoop dfs -put cachedir.jar samples/cachefile$ hadoop dfs -cat /user/me/samples/cachefile/input.txttestlink/cache.txttestlink/cache2.txt$ cat test_jar/cache.txtThis is just the cache string$ cat test_jar/cache2.txtThis is just the second cache string$ hadoop dfs -ls /user/me/samples/cachefile/outFound 1 items/user/me/samples/cachefile/out/part-00000 69$ hadoop dfs -cat /user/me/samples/cachefile/out/part-00000This is just the cache stringThis is just the second cache string