摘要:如何去创建项目这里就不对讲了,可以参考 :https://www.cnblogs.com/braveym/p/12214367.html 先在pom.xml文件里面添加spark依赖包 <dependency> <groupId>org.apache.spark</groupId> <artifac
阅读全文
摘要:新建一个项目 构建完成 运行程序 新建Scala目录 把他标志为资源目录 在scala目录下新建包 添加scala模块 创建scala类 输入代码 package com.gong object HelloWorld { def main(args: Array[String]): Unit = {
阅读全文
摘要:首先在本地安装scala 我这里已经在本地安装好了。 打开本地的IDEA 安装scala 创建新的项目 选择scala的骨架 在这里提醒一下,本地安装的maven记得添加阿里源,不然很多包就下载不了 <mirror> <id>alimaven</id> <name>aliyun maven</nam
阅读全文
摘要:1.1 键值对RDD操作 Mapreduce框架是把数据转为key-value,再聚合为key-values的过程。 在Spark里key-value RDD(pair RDD)同样是最常用的,在每个应用中基本都会用到。 pair RDD如何创建?不是通过sc.parallelize 创建 通常应用
阅读全文
摘要:1.1 Action操作 前边提到的first() 、collect() 都是Action操作。常用的有: collect():把数据返回驱动器程序中最简单、最常见的操作, 通常在单元测试中使用,数据量不能太大,因为放在内存中,数据量大会内存溢出。 reduce():类似sum() ,如:val s
阅读全文
摘要:Spark 1.0版本开始,推出了Spark SQL。其实最早使用的,都是Hadoop自己的Hive查询引擎;但是后来Spark提供了Shark;再后来Shark被淘汰,推出了Spark SQL。Shark的性能比Hive就要高出一个数量级,而Spark SQL的性能又比Shark高出一个数量级。
阅读全文
摘要:在安装airflow后,初始化遇到这样的问题 解决方法:进入mysql airflow 数据库,设置global explicit_defaults_for_timestamp
阅读全文
摘要:RDD 两种类型的操作: Transform转化操作 和Action行动操作。 Transform操作会由一个RDD 生成一个新的RDD,这个过程中不进行实质计算,只有当第一次Action操作时才会真正计算。 称作Lazy计算,惰性计算。 比如: scala> val a = sc.parallel
阅读全文
摘要:Spark 可以简单概括为 3 点: Scala 语法 RDD 操作(Transform & Action) 分布式化 做 Spark 开发, 其实就是用 Scala 语言进行 RDD 操作, Spark 会自动将 RDD 中的数据分发到集群上, 并将操作并行化执行。 Java 工程师做分布式开发的
阅读全文
摘要:新建一个类 运行代码 运行代码 运行代码 运行代码 运行代码
阅读全文