在idea中运行spark时出现NativeCrc32.nativeComputeChunkedSumsByteArray错误
java.lang.UnsatisfiedLinkError: org.apache.hadoop.util.NativeCrc32.nativeComputeChunkedSumsByteArray
解决步骤:
1.到spark官网查询spark与hadoop版本的兼容信息
2.下载对应版本的hadoop.dll和winutils.exe文件,将其放入同个文件,例如放入D:\hadoop\bin
中
3.添加path变量
HADOOP_HOME=hadoop\bin
4.将hadoop.dll在C:\Windows\System32
也放一份
5.重启IDEA
问题解决!!😁✌
附上hadoop2.8的dll文件和相应的winutils
链接: https://pan.baidu.com/s/1K3vgN3VbH5JWmxcwv8R8sw 提取码: 72i6