spark笔记

spark-project.org 下载pre_版非withoutHadoop版本的包(已经编译好的集成Hadoop的spark包)

设置环境变量:

SPARK_HOME:   解压好的spark目录

path:   %spark_home%/bin 

然后cmd输入spark-shell

如果不能使用继续配置sparkclasspath

SPARK_CLASSPATH(如果是1.0+以上版本可以去掉这个配置否则会给予警告):

%SPARK_HOME%/lib/spark-assembly-1.6.1-hadoop2.2.0.jar;

%SPARK_HOME%/lib/spark-1.6.1-yarn-shuffle.jar;

%SPARK_HOME%/lib/spark-examples-1.6.1-hadoop2.2.0.jar

二、配置Hadoop

1:仅下载git中bin文件目录(https://github.com/sdravida/hadoop2.6_Win_x64/tree/master/bin)

把下载的bin放入新建的Hadoop文件夹中

2:然后配置HADOOP_HOME(直接是Hadoop目录)

3:然后配置到path中  %HADOOP_HOME%/bin

 

posted @   oceanyang  阅读(125)  评论(0编辑  收藏  举报
编辑推荐:
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
阅读排行:
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 别再用vector<bool>了!Google高级工程师:这可能是STL最大的设计失误
· 单元测试从入门到精通
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)
点击右上角即可分享
微信分享提示