在idea中运行spark时出现NativeCrc32.nativeComputeChunkedSumsByteArray错误

java.lang.UnsatisfiedLinkError: org.apache.hadoop.util.NativeCrc32.nativeComputeChunkedSumsByteArray

解决步骤:

1.到spark官网查询spark与hadoop版本的兼容信息

2.下载对应版本的hadoop.dll和winutils.exe文件,将其放入同个文件,例如放入D:\hadoop\bin

3.添加path变量

HADOOP_HOME=hadoop\bin

4.将hadoop.dllC:\Windows\System32也放一份

5.重启IDEA

问题解决!!😁✌

附上hadoop2.8的dll文件和相应的winutils
链接: https://pan.baidu.com/s/1K3vgN3VbH5JWmxcwv8R8sw 提取码: 72i6

posted @ 2020-04-22 23:18  Q1Zhen  阅读(529)  评论(0编辑  收藏  举报