spark在windows环境下执行spark-shell失败 提示找不到路径

找不到路径一定是环境变量出现了问题,细心检查自己的java、scala以及spark的环境变量是否编辑正确

我的问题是因为,java_home 的环境变量后面多了一个分号";",所以不起作用,因为有一个自带的环境变量起作用了(下图)所以java -version是没问题的,在cmd命令下执行  javac看是否可以运行!!!!

 

 

再在cmd中运行scala,看是否安装成功

posted @   新界王  阅读(816)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 无需6万激活码!GitHub神秘组织3小时极速复刻Manus,手把手教你使用OpenManus搭建本
· Manus爆火,是硬核还是营销?
· 终于写完轮子一部分:tcp代理 了,记录一下
· 别再用vector<bool>了!Google高级工程师:这可能是STL最大的设计失误
· 单元测试从入门到精通
点击右上角即可分享
微信分享提示