上一页 1 ··· 21 22 23 24 25 26 27 28 29 ··· 42 下一页
摘要: 1 详细异常 2 查询Stack Overflow里面问答 https://stackoverflow.com/questions/54036028/spark-executor-heartbeat-timed-out-after-x-ms 3 解决 提交spark submit任务的时候,加大超时 阅读全文
posted @ 2019-06-08 20:25 Questions张 阅读(4634) 评论(2) 推荐(0) 编辑
摘要: 查看日志:yarn logs -applicationId application_xxx 导入到外部文件 yarn logs -applicationId application_xxx >> temp.log 然后自己就可以用tail或者grep去查看日志了。 阅读全文
posted @ 2019-06-06 11:28 Questions张 阅读(986) 评论(0) 推荐(0) 编辑
摘要: SQL如下 阅读全文
posted @ 2019-06-06 10:35 Questions张 阅读(5228) 评论(0) 推荐(0) 编辑
摘要: 1 异常信息 2 因为自己的/etc/profile有不存在的配置,注释掉即可 阅读全文
posted @ 2019-06-01 16:46 Questions张 阅读(2218) 评论(0) 推荐(0) 编辑
摘要: 1 Phoenix远程无法连接但是本地可以连接,详细异常 2 仔细观察异常信息,发现连接是localhost信息,如果是本机访问当然没有问题,但是远程访问肯定就有问题,知道问题所在,开始排查 3 语网友说是要设置dns,感觉太复杂了, https://blog.51cto.com/yaoyinjie 阅读全文
posted @ 2019-06-01 12:34 Questions张 阅读(7814) 评论(0) 推荐(0) 编辑
摘要: 1 异常信息 2 原因以及解决思路 <!--?xml version="1.0" encoding="UTF-8"?--> core-site.xml 与 hdfs-site.xml中的hdfs存储路径设置不一致,修改成一致的即可解决问题 阅读全文
posted @ 2019-06-01 12:23 Questions张 阅读(1851) 评论(0) 推荐(0) 编辑
摘要: 1 详细异常信息 2 原因 自己之前的hbase存储的文件路径是本地文件系统,修改为HDFS路径后,Phoenix找不到系统表 3 解决办法 a 先删除Zookeeper里面的hbase信息 b 重启hbase,重新初始化 c 重新启动Phoenix解决问题 如果是生产环境,不能够重新初始化hbas 阅读全文
posted @ 2019-06-01 12:20 Questions张 阅读(1573) 评论(0) 推荐(0) 编辑
摘要: 1 异常信息 2 原因 因为core-site.xml 和 hdfs-site.xml配置了不一致的Hadoop.tmp.dir 目录,导致总是出现问题,删除掉core-site.xml中的tmp.dir配置,统一配置到hdfs-site.xml中 hdfs-site.xml中的dir配置 阅读全文
posted @ 2019-05-30 21:16 Questions张 阅读(695) 评论(0) 推荐(0) 编辑
摘要: 1 yarn application -list 阅读全文
posted @ 2019-05-27 19:48 Questions张 阅读(2003) 评论(0) 推荐(0) 编辑
摘要: 1 先查看整个磁盘的情况 df -h 查看整台服务器的硬盘使用情况 cd / 进入根目录 du -sh * 查看每个文件夹的大小 2 再进入到对应的大空间文件夹,定位,大文件夹 3 使用ln -s 软连接,连接到空间大的硬盘 例如 /var/log 空间太大,存储的,移动到wm1文件夹下面 sudo 阅读全文
posted @ 2019-05-16 11:27 Questions张 阅读(631) 评论(0) 推荐(0) 编辑
上一页 1 ··· 21 22 23 24 25 26 27 28 29 ··· 42 下一页