02 2022 档案
摘要:基础概念 数组:采用一段连续的存储单元来存储数据。对于指定下标的查找,时间复杂度O(1),通过给定值进行查找,需要遍历数组,逐一比对给定关键字和数组元素,时间复杂度O(n)。 线性链表:对于链表的新增,删除等操作(在找到指定操作位置后),仅需处理节点间的引用即可,时间复杂度为O(1),而查找操作需要
阅读全文
摘要:SparkStreaming中的数据插入jdbc object OutDemo1 { val props = new Properties() props.setProperty("user","root") props.setProperty("password","123456") // pro
阅读全文
摘要:su - root //登入账号su - mk //切换到普通用户exit //退出q+!=不保存退出;wq=保存退出 init 0关机临时修改网卡的ip地址,重启失效ens33 overruns#ifconfig ens33+网卡名。 重启服务 #systemctl restart network
阅读全文
摘要:ssh免密登入 切换root用户 su root ① vim /etc/sudoers ②三台ip地址 ③ssh-keygen -t rsa 一直回车 ④ssh-copy-id hadoop103 从102 copy 到 103上面
阅读全文
摘要:java中在json字符串后面添加时间戳 JSONObject obj = JSON.parseObject(log); obj.put("ts",System.currentTimeMillis());
阅读全文
摘要:1.1 Spark Streaming是什么 Spark Streaming 是 Spark 核心 API 的扩展, 用于构建弹性, 高吞吐量, 容错的在线数据流的流式处理程序. 总之一句话: Spark Streaming 用于流式数据的处理 数据可以来源于多种数据源: Kafka, Flume,
阅读全文
摘要:1.1 从 hive读数据 object HiveRead { def main(args: Array[String]): Unit = { val spark = SparkSession.builder() .master("local[*]") .appName("HiveRead") .e
阅读全文
摘要:1.1 从 jdbc 读数据 object JDBCRead { def main(args: Array[String]): Unit = { val spark = SparkSession.builder() .master("local[*]") .appName("JDBCRead") .
阅读全文
摘要:1.1 创建 DataFrame With a SparkSession, applications can create DataFrames from an existing RDD, from a Hive table, or from Spark data sources. 有了 Spark
阅读全文
摘要:正常情况下, 传递给 Spark 算子(比如: map, reduce 等)的函数都是在远程的集群节点上执行, 函数中用到的所有变量都是独立的拷贝. 这些变量被拷贝到集群上的每个节点上, 都这些变量的更改不会传递回驱动程序. 支持跨 task 之间共享变量通常是低效的, 但是 Spark 对共享变量
阅读全文
摘要:从文件中读取数据是创建 RDD 的一种方式. 把数据保存的文件中的操作是一种 Action. Spark 的数据读取及数据保存可以从两个维度来作区分:文件格式以及文件系统。 文件格式分为:Text文件、Json文件、csv文件、Sequence文件以及Object文件; 文件系统分为:本地文件系统、
阅读全文
摘要:1.1 HashPartitioner HashPartitioner分区的原理:对于给定的key,计算其hashCode,并除以分区的个数取余,如果余数小于 0,则用余数+分区的个数(否则加0),最后返回的值就是这个key所属的分区ID。 1.2 RangePartitioner HashPart
阅读全文
摘要:第 1 章 RDD 概述 1.1 什么是 RDD RDD(Resilient Distributed Dataset)叫做弹性分布式数据集,是Spark中最基本的数据抽象。 1.2 RDD 的 5 个主要属性(property) • A list of partitions 多个分区. 分区可以看成
阅读全文