HDFS_DELEGATION_TOKEN过期的问题解决汇总
问题类别
- Spark框架自身的问题
- Hadoop全家桶的问题
- 开发者使用的库的问题
排查
- 已知Hadoop-common-2.6.0的UGI存在bug,代码为HADOOP-10786,该问题在CDH发行版中已经修复,但Apache版本在2.6.1之前存在问题。
- 已知HDFS也存在一个HDFS_DELEGATION_TOKEN过期的bug,代码为HDFS-9276,问题在CDH发行版中已经修复,但Apache在2.7.1之前的版本存在问题。
- 已知Spark还存在一个HDFS_DELEGATION_TOKEN过期的bug,代码为SPARK-23361,该问题会导致Driver重启后,如果超过7天,就会挂掉一次。SPARK 2.4.0之前存在该问题。
以上CDH发行版特指 2.6.0-CDH5.12.1,相对的Apache发行版版本为2.6.0
方法
- 首先,确保用的Apache库没有问题,才能安全地长期运行Spark,Flink等 long-running applications,其次再排查手动使用Hadoop HDFS库的方式,才能访问HDFS,Hbase, Hive等,才能确保程序不会挂掉
- 确保使用 Hadoop-common-2.6.0-CDH5.12.1以及其他Hadoop有关的包,保证框架层面不会有问题
- 要么升级版本到没有BUG的hadoop库的版本,才能继续使用Apache全家桶
提示
- 用户打包的应用程序内可能会有 hadoop-xxxx.jar,SPARK_HOME/jars/内也可能有 hadoop-xxxx.jar,或者shade导致的内嵌字节码文件。
- 常见的
--conf spark.hadoop.fs.hdfs.impl.disable.cache=true
这个选项,只能回避HDFS-9276的BUG。
案例
org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.token.SecretManager$InvalidToken): token (token for research: HDFS_DELEGATION_TOKEN owner=research@RTC.SLANKKA.COM, renewer=yarn, realUser=, issueDate=1690268368213, maxDate=1690873168213, sequenceNumber=211804054, masterKeyId=2078) is expired, current time: 2023-08-01 15:00:20,416+0800 expected renewal time: 2023-08-01 14:59:28,213+0800
at org.apache.hadoop.ipc.Client.call(Client.java:1504)
at org.apache.hadoop.ipc.Client.call(Client.java:1441)
at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:230)
at com.sun.proxy.$Proxy10.getFileInfo(Unknown Source)
at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolTranslatorPB.getFileInfo(ClientNamenodeProtocolTranslatorPB.java:771)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:498)
at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:260)
at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:104)
at com.sun.proxy.$Proxy11.getFileInfo(Unknown Source)
at org.apache.hadoop.hdfs.DFSClient.getFileInfo(DFSClient.java:2126)
at org.apache.hadoop.hdfs.DistributedFileSystem$20.doCall(DistributedFileSystem.java:1262)
at org.apache.hadoop.hdfs.DistributedFileSystem$20.doCall(DistributedFileSystem.java:1258)
at org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81)
at org.apache.hadoop.hdfs.DistributedFileSystem.getFileStatus(DistributedFileSystem.java:1258)
at org.apache.hadoop.fs.FilterFileSystem.getFileStatus(FilterFileSystem.java:425)
at org.apache.hadoop.fs.viewfs.ChRootedFileSystem.getFileStatus(ChRootedFileSystem.java:226)
at org.apache.hadoop.fs.viewfs.ViewFileSystem.getFileStatus(ViewFileSystem.java:379)