上一页 1 2 3 4 5 6 7 8 9 10 ··· 30 下一页
摘要: 行动算子 (1) def main(args: Array[String]): Unit = { val sparkConf = new SparkConf().setMaster("local[*]").setAppName("Operator") val sc = new SparkContex 阅读全文
posted @ 2022-01-10 23:01 chenghaixinag 阅读(19) 评论(0) 推荐(0) 编辑
摘要: 今天完成学习了一个案例的实践和一些spark算子的学习 (1)join def main(args: Array[String]): Unit = { val sparkConf = new SparkConf().setMaster("local[*]").setAppName("Operator 阅读全文
posted @ 2022-01-07 22:00 chenghaixinag 阅读(26) 评论(0) 推荐(0) 编辑
摘要: 今天继续学习spark双value算子 (1) def main(args: Array[String]): Unit = { val sparkConf = new SparkConf().setMaster("local[*]").setAppName("Operator15") val sc 阅读全文
posted @ 2022-01-03 23:19 chenghaixinag 阅读(21) 评论(0) 推荐(0) 编辑
摘要: 今天学习完单value的算子和双value算子的开始 (1)distinct def main(args: Array[String]): Unit = { val sparkConf = new SparkConf().setMaster("local[*]").setAppName("Opera 阅读全文
posted @ 2022-01-01 23:21 chenghaixinag 阅读(19) 评论(0) 推荐(0) 编辑
摘要: 今天继续学习sparkRDD的算子 (1)flatMap def main(args: Array[String]): Unit = { val sparkConf = new SparkConf().setMaster("local[*]").setAppName("Operator11") va 阅读全文
posted @ 2021-12-31 22:41 chenghaixinag 阅读(23) 评论(0) 推荐(0) 编辑
摘要: 今天开始学习spark中RDD算子 首先是Value类型 (1)map 练习代码: def main(args: Array[String]): Unit = { val sparkConf = new SparkConf().setMaster("local[*]").setAppName("Op 阅读全文
posted @ 2021-12-28 23:28 chenghaixinag 阅读(16) 评论(0) 推荐(0) 编辑
摘要: 今天开始学习spark3大数据结构中的RDD 什么是RDD: RDD(Resilient Distributed Dataset)叫做弹性分布式数据集,是 Spark 中最基本的数据 处理模型。代码中是一个抽象类,它代表一个弹性的、不可变、可分区、里面的元素可并行 计算的集合。 RDD有5大核心属性 阅读全文
posted @ 2021-12-26 21:04 chenghaixinag 阅读(20) 评论(0) 推荐(0) 编辑
摘要: 今天继续spark的学习,今天完成了Standalone 模式的配置和在windows上的运行 首先是Standalone 模式 更改spark目录下conf文件中的salves文件,添加内容 更改spark目录下conf文件中的spark-env文件,添加内容 export JAVA_HOME=/ 阅读全文
posted @ 2021-12-24 23:09 chenghaixinag 阅读(17) 评论(0) 推荐(0) 编辑
摘要: 今天接着昨天spark学习 使用spark自己自带的函数完成对文本中的单词统计,昨天代码的进阶版 代码:package com.chenghaixiang.core.wcimport org.apache.spark.rdd.RDDimport org.apache.spark.{SparkConf 阅读全文
posted @ 2021-12-22 21:55 chenghaixinag 阅读(27) 评论(0) 推荐(0) 编辑
摘要: 今天开始学习sqark,主要参考学习的是尚硅谷的sqark教程。 Spark 核心模块 1.在idea中添加scala 因为在idea中添加scala插件下载速度过慢,所以用离线添加 在idea官网插件库中下载scala :https://plugins.jetbrains.com/plugin/1 阅读全文
posted @ 2021-12-21 23:46 chenghaixinag 阅读(29) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 10 ··· 30 下一页