Hadoop异常解决:Yarn Failed to launch container
问题
在服务器上起了HDFS+Yarn,然后提交了一个作业:
hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.1.jar pi 1 2
但是运行的时候报错,Console的log如下:
2020-11-03 14:31:44,840 WARN org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch:
Failed to launch container.
java.io.FileNotFoundException:
File /home/hadoop/app/tmp/nm-local-dir/usercache/root/appcache/application_1604385076312_0001/container_1604385076312_0001_02_000001
does not exist
at org.apache.hadoop.fs.RawLocalFileSystem.deprecatedGetFileStatus(RawLocalFileSystem.java:606)
at org.apache.hadoop.fs.RawLocalFileSystem.getFileLinkStatusInternal(RawLocalFileSystem.java:819)
at org.apache.hadoop.fs.RawLocalFileSystem.getFileStatus(RawLocalFileSystem.java:596)
at org.apache.hadoop.fs.FileSystem.primitiveMkdir(FileSystem.java:1052)
at org.apache.hadoop.fs.DelegateToFileSystem.mkdir(DelegateToFileSystem.java:161)
at org.apache.hadoop.fs.FilterFs.mkdir(FilterFs.java:197)
at org.apache.hadoop.fs.FileContext$4.next(FileContext.java:730)
at org.apache.hadoop.fs.FileContext$4.next(FileContext.java:726)
at org.apache.hadoop.fs.FSLinkResolver.resolve(FSLinkResolver.java:90)
at org.apache.hadoop.fs.FileContext.mkdir(FileContext.java:726)
at org.apache.hadoop.yarn.server.nodemanager.DefaultContainerExecutor.createDir(DefaultContainerExecutor.java:562)
at org.apache.hadoop.yarn.server.nodemanager.DefaultContainerExecutor.launchContainer(DefaultContainerExecutor.java:161)
at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:302)
at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:82)
at java.util.concurrent.FutureTask.run(FutureTask.java:266)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
at java.lang.Thread.run(Thread.java:748)
查看NodeManager的log,也是类似的信息:
WARN org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch: Failed to launch container.
简单分析可知:(参考Yarn的作业流程图,)程序在比较早期就挂了,即 RM 在 NM 上启动 Container,但是起不来。
分析1
看了一会log,发现有的地方写到关于Container内存大小的,动辄就是1G多。(好像,默认分配给Container的内存大小是1024MB)
我的服务器的配置是: 1 core + 2GB memory。算上已经运行的程序,剩下的也就600MB的内存。
所以,我的第一个思路是:会不会Container因为内存不足起不来?
捣鼓了一阵,把内存使用改小了。
yarn-site.xml
<property>
<name>yarn.nodemanager.resource.memory-mb</name>
<value>512</value>
</property>
<property>
<name>yarn.scheduler.minimum-allocation-mb</name>
<value>256</value>
</property>
<property>
<name>yarn.scheduler.maximum-allocation-mb</name>
<value>256</value>
</property>
<property>
<name>yarn.app.mapreduce.am.resource.mb</name>
<value>128</value>
</property>
mapr-site.xml
<property>
<name>mapreduce.map.memory.mb</name>
<value>128</value>
</property>
<property>
<name>mapreduce.reduce.memory.mb</name>
<value>128</value>
</property>
<property>
<name>mapreduce.map.java.opts</name>
<value>-Xmx128m</value>
</property>
<property>
<name>mapreduce.reduce.java.opts</name>
<value>-Xmx128m</value>
</property>
重启再试一遍,还是不行。看来不是因为这个原因。改回来。
(后来看log可以知道:Container的内存管理分为实际物理内存占用和虚拟内存占用。运行这个exmaple程序,物理内存可能只有十几MB,虚拟内存占用可达几个GB)
分析2
还是回到log中来。
DefaultContainerExecutor
想要launchContainer
,但是 somehow 有个文件路径不存在,所以需要createDir
。
但是为什么创建文件夹的操作最终会报文件不存在的Error呢?继续分析。
一路调用Hadoop自带的工具类创建文件夹,最终,到了FileSystem.primitiveMkdir
中,会做一个判断,parent dir存不存在,源码如下:
protected void primitiveMkdir(Path f, FsPermission absolutePermission,
boolean createParent)
throws IOException {
if (!createParent) { // parent must exist.
// since the this.mkdirs makes parent dirs automatically
// we must throw exception if parent does not exist.
final FileStatus stat = getFileStatus(f.getParent());
if (stat == null) {
throw new FileNotFoundException("Missing parent:" + f);
}
if (!stat.isDirectory()) {
throw new ParentNotDirectoryException("parent is not a dir");
}
// parent does exist - go ahead with mkdir of leaf
}
// Default impl is to assume that permissions do not matter and hence
// calling the regular mkdirs is good enough.
// FSs that implement permissions should override this.
if (!this.mkdirs(f, absolutePermission)) {
throw new IOException("mkdir of "+ f + " failed");
}
}
也就是在这个时候,getFileStatus(f.getParent());
这里报错了。
报错的路径是这个:
/home/hadoop/app/tmp/nm-local-dir/usercache/root/appcache/application_1604385076312_0001/container_1604385076312_0001_02_000001
在系统搜了一下确实没有。除此之外,我们还知道,这个是一个parent dir,里面还有东西的。
这个container_1604385076312_0001_02_000001
到底在哪里呢?
搜了一圈,发现在这个路径下:
/home/hadoop/app/tmp/nm-local-dir/nmPrivate/application_1604385076312_0001/container_1604385076312_0001_02_000001
注意:一个是nm-local-dir/usercache
,一个是nm-local-dir/nmPrivate
。
并且,在container_1604385076312_0001_02_000001
路径下,我们可以发现两个文件:
container_1604385076312_0001_02_000001.tokens
launch_container.sh
所以,我们大概能猜想到背后发生的事:Yarn想要调用launch_container.sh
这个文件启动一个Contianer。但是somehow由于路径不对,没有找到这个文件。
关于这个default路径,我看了DefaultContainerExecutor.launchContainer
的源码,猜想是使用的DEFAULT_CONTAINER_TEMP_DIR
。
Path tmpDir = new Path(containerWorkDir,
YarnConfiguration.DEFAULT_CONTAINER_TEMP_DIR);
createDir(tmpDir, dirPerm, false, user);
具体是怎么找的我就没有深究了,反正这里把它换了试一下先。
修改
这里,我所作的修改是:换一个路径,手动指定 Yarn 的local dir。
yarn-site.xml
<property>
<name>yarn.nodemanager.local-dirs</name>
<value>/home/hadoop/yarn/nm/localdir</value>
</property>
重启再试,成功!
观察 NM 的log,能看到如下语句,显示地指定了运行bash命令的路径。
INFO org.apache.hadoop.yarn.server.nodemanager.DefaultContainerExecutor:
launchContainer:
[bash, /home/hadoop/yarn/nm/localdir/usercache/root/appcache/application_1604388443689_0001/container_1604388443689_0001_01_000005/default_container_executor.sh]
参考
- Yarn简单介绍及内存配置 https://www.cnblogs.com/oumiga/articles/4174502.html
- Hadoop YARN – 如何限制requestedMemory https://www.qedev.com/bigdata/231265.html
- yarn-site.xml 配置说明 https://www.jianshu.com/p/35374384a1aa
- DefaultContainerExecutor 与 LinuxContainerExecutor https://blog.csdn.net/zhanglong_4444/article/details/89380307