Spark学习之Spark安装

Spark安装

spark运行环境

  • spark是Scala写的,运行在jvm上,运行环境为java7+
  • 如果使用Python的API ,需要使用Python2.6+或者Python3.4+
  • Spark1.6.2  -  Scala 2.10    Spark 2.0.0  -  Scala  2.11

Spark下载

  • 下载地址:http://spark.apache.org/downloads.html
  • 搭建spark,不需要Hadoop,如有Hadoop集群,可下载对应版本解压

Spark目录

  • bin包含用来和Spark交互的可执行文件,如spark shell
  • core、streaming、Python,包含主要组件的源代码
  • examples包含一些单机spark job,可以研究和运行这些l例子

spark的shell

  • spark的shell能够处理分布在集群上的数据
  • spark把数据加载到节点的内存中,因此分布式处理可在秒级完成
  • 快速迭使代式计算,实时查询,分析一般能够在shells中完成
  • spark提供了Python shells和Scala shells

spark安装步骤

  1. 将下载文件上传到服务器端
  2. 解压,进入bin目录,输入以下命令
    sudo ./spark-shell
  3. 可看到欢迎界面

       4.测试代码如下:

spark shell 实例
val lines(变量)=sc.textFile("../../helloSpark") 
lines.count()
lines.first()
把文本文件加载成RDD复制给lines的RDD

 

posted @   久曲健  阅读(312)  评论(0编辑  收藏  举报
编辑推荐:
· [.NET]调用本地 Deepseek 模型
· 一个费力不讨好的项目,让我损失了近一半的绩效!
· .NET Core 托管堆内存泄露/CPU异常的常见思路
· PostgreSQL 和 SQL Server 在统计信息维护中的关键差异
· C++代码改造为UTF-8编码问题的总结
阅读排行:
· 一个费力不讨好的项目,让我损失了近一半的绩效!
· 清华大学推出第四讲使用 DeepSeek + DeepResearch 让科研像聊天一样简单!
· 实操Deepseek接入个人知识库
· CSnakes vs Python.NET:高效嵌入与灵活互通的跨语言方案对比
· Plotly.NET 一个为 .NET 打造的强大开源交互式图表库
历史上的今天:
2017-02-19 jmeter之使用代理录制脚本
点击右上角即可分享
微信分享提示