……

上一页 1 ··· 8 9 10 11 12 13 14 15 16 ··· 36 下一页
2020年9月22日
摘要: 一、数据采集模块 Linux基本配置 【1】Linux环境搭建 1).修改MAC地址 方法1:vim /etc/udev/rules.d/70-persistent-net.rules 删除eth0,将eth1修改为eth0 方法2:rm -rf /etc/udev/rules.d/70-persi 阅读全文
posted @ 2020-09-22 11:37 大码王 阅读(703) 评论(1) 推荐(0) 编辑
摘要: 一、数据生成模块1)埋点数据基本格式 公共字段:基本所有安卓手机都包含的字段 业务(事件)字段:埋点上报的字段,有具体的业务类型 示例如下<ignore_js_op>2)示例日志(服务器时间戳 | 日志)如下注意:事件字段包含多个用户行为数据3)事件日志数据【3.1】商品列表页(loading)事件 阅读全文
posted @ 2020-09-22 11:06 大码王 阅读(331) 评论(0) 推荐(0) 编辑
摘要: 一、数据仓库 数据仓库(Data Warehouse),是为企业所有决策制定过程,提供所有系统数据支持的战略集合通过对数据仓库中数据的分析,可以帮助企业,改进业务流程、控制成本、提高产品质量等数据仓库,并不是数据的最终目 的地,而是为数据最终的目的地做好准备。这些准备包括对数据的:清洗,转义,分类, 阅读全文
posted @ 2020-09-22 10:56 大码王 阅读(805) 评论(0) 推荐(1) 编辑
2020年9月17日
摘要: 问题导读 1.Centos7如何安装配置? 2.linux网络配置如何进行? 3.linux环境下java如何安装? 4.linux环境下SSH免密码登录如何配置? 5.linux环境下Hadoop2.7如何安装? 6.linux环境下Mysql如何安装? 7.linux环境下Hive如何安装? 8 阅读全文
posted @ 2020-09-17 11:43 大码王 阅读(1686) 评论(0) 推荐(1) 编辑
2020年9月9日
摘要: 很简单的sql 用户分析语句 :只要自定义简单的udf函数 获取统计时间createdatms字段的 使用的日历类 add方法 和simpledateformat 将long类型的 定义多个重载方法 获取返回值int类型 或者long类型 进行时间判断即可 getdaybegin(天开始),比如20 阅读全文
posted @ 2020-09-09 14:17 大码王 阅读(1557) 评论(0) 推荐(0) 编辑
摘要: 一、求出场率与出厂次数 1、有如下数据:(建表语句+sql查询) id names 1 aa,bb,cc,dd,ee 2 aa,bb,ff,ww,qq 3 aa,cc,rr,yy 4 aa,bb,dd,oo,pp 2、求英雄的出场排名top3的出场次数及出场率 create table if not 阅读全文
posted @ 2020-09-09 11:43 大码王 阅读(557) 评论(0) 推荐(0) 编辑
摘要: 1.数据 s1,201801,A s1,201802,A s1,201803,C s1,201804,A s1,201805,A s1,201806,A s2,201801,A s2,201802,B s2,201803,C s2,201804,A s2,201805,D s2,201806,A s 阅读全文
posted @ 2020-09-09 11:33 大码王 阅读(662) 评论(0) 推荐(0) 编辑
摘要: 一:例题1 ​ 统计用户连续交易的总额、连续登陆天数、连续登陆开始和结束时间、间隔天数 1.建表: create table deal_tb (id int, daystr varchar(10), amount decimal(10,2)); 2.插入数据: insert into deal_tb 阅读全文
posted @ 2020-09-09 11:25 大码王 阅读(1428) 评论(0) 推荐(0) 编辑
摘要: 一.建表和加载数据 1.student表 create table if not exists student(s_id int,s_name string,s_birth string,s_sex string) row format delimited fields terminated by 阅读全文
posted @ 2020-09-09 11:06 大码王 阅读(415) 评论(0) 推荐(0) 编辑
摘要: Hive常用函数大全一览 文章目录 1 关系运算 1.1 1、等值比较: = 1.2 2、不等值比较: 1.3 3、小于比较: < 1.4 4、小于等于比较: <= 1.5 5、大于比较: > 1.6 6、大于等于比较: >= 1.7 7、空值判断: IS NULL 1.8 8、非空判断: IS N 阅读全文
posted @ 2020-09-09 10:27 大码王 阅读(461) 评论(0) 推荐(0) 编辑
摘要: Hive UDFHive UDF 函数1 POM 文件2.UDF 函数3 利用idea打包4 添加hive udf函数4.1 上传jar包到集群4.2 修改集群hdfs文件权限4.3 注册UDF4.4 使用UDF Hive UDF 函数 1、 POM 文件 <?xml version="1.0" e 阅读全文
posted @ 2020-09-09 10:04 大码王 阅读(1179) 评论(0) 推荐(0) 编辑
2020年9月8日
摘要: package com.xxxx.report.service; import com.google.common.collect.Lists; import com.xx.report.config.Constants; import org.apache.spark.api.java.JavaR 阅读全文
posted @ 2020-09-08 17:53 大码王 阅读(837) 评论(1) 推荐(0) 编辑
摘要: 近期又有需求为:导入Oracle的表到hive库中; 关于spark读取Oracle到hive有以下两点需要说明: 1、数据量较小时,可以直接使用spark.read.jdbc(orclUrl,table_name,orclProperties)读取,效率应该没什么问题,能很快完成; 2、数据量较大 阅读全文
posted @ 2020-09-08 17:50 大码王 阅读(1709) 评论(0) 推荐(0) 编辑
摘要: 一 环境: spark-2.2.0; hive-1.1.0; scala-2.11.8; hadoop-2.6.0-cdh-5.15.0; jdk-1.8;mongodb-2.4.10; 二.数据情况: MongoDB数据格式{ "_id" : ObjectId("5ba0569cafc9ec432 阅读全文
posted @ 2020-09-08 17:44 大码王 阅读(1091) 评论(0) 推荐(0) 编辑
摘要: @羲凡——只为了更好的活着 Spark2.0 读写Redis数据(scala)——redis5.0.3 特别强调楼主使用spark2.3.2版本,redis5.0.3版本 1.准备工作 在pom.xml文件中要添加 <dependency> <groupId>com.redislabs</group 阅读全文
posted @ 2020-09-08 17:42 大码王 阅读(3093) 评论(0) 推荐(0) 编辑
摘要: Spark(直接读取mysql中的数据) 两种方法的目的:进行mysql数据的数据清洗 方法一: ①执行 [root@head42 spark]# spark-shell --jars /opt/spark/jars/mysql-connector-java-5.1.38.jar ②执行 val d 阅读全文
posted @ 2020-09-08 17:38 大码王 阅读(578) 评论(0) 推荐(0) 编辑
摘要: 由于ES集群在拉取数据时可以提供过滤功能,因此在采用ES集群作为spark运算时的数据来源时,根据过滤条件在拉取的源头就可以过滤了(ES提供过滤),就不必像从hdfs那样必须全部加载进spark的内存根据filter算子过滤,费时费力。 代码: import org.apache.spark.{Sp 阅读全文
posted @ 2020-09-08 17:34 大码王 阅读(1491) 评论(0) 推荐(0) 编辑
摘要: 这里的SparkSQL是指整合了Hive的spark-sql cli(关于SparkSQL和Hive的整合,见文章后面的参考阅读). 本质上就是通过Hive访问HBase表,具体就是通过hive-hbase-handler . hadoop-2.3.0-cdh5.0.0 apache-hive-0. 阅读全文
posted @ 2020-09-08 17:31 大码王 阅读(997) 评论(0) 推荐(0) 编辑
摘要: 1.首先将集群的这3个文件hive-site.xml,core-size.xml,hdfs-site.xml放到资源文件里(必须,否则报错) 2.代码方面。下面几个测试都可以运行。 1)test03.java import org.apache.spark.sql.SparkSession; imp 阅读全文
posted @ 2020-09-08 17:29 大码王 阅读(2273) 评论(0) 推荐(0) 编辑
摘要: Apache Kafka 是一个可扩展,高性能,低延迟的平台,允许我们像消息系统一样读取和写入数据。我们可以很容易地在 Java 中使用 Kafka。 Spark Streaming 是 Apache Spark 的一部分,是一个可扩展、高吞吐、容错的实时流处理引擎。虽然是使用 Scala 开发的, 阅读全文
posted @ 2020-09-08 17:22 大码王 阅读(368) 评论(0) 推荐(0) 编辑
上一页 1 ··· 8 9 10 11 12 13 14 15 16 ··· 36 下一页
复制代码