Failed to execute spark task, with exception 'org.apache.hadoop.hive.ql.metadata.HiveException

 

 因为spark默认的元数据存储在derby,derby是单session的,启动多个会报错,杀掉多余进程解决。

 

posted @ 2021-08-18 15:43  海飏凨  阅读(2458)  评论(0编辑  收藏  举报