基于大数据平台的毕业设计
前言
最近有很多人问我,大数据专业有什么好的毕设项目,我就简单的回复了一下。也有直接问我要源码的....
所以就抽空写一写自己毕业设计的一个思路,大数据是我实习自学的,这个思路是我当初自己想的,就当做一份参考吧。
在我毕业那年,同学们毕业设计大多都是以Java语言开发的各种管理系统、xx商城为主,包括我刚开始的想法也是这样的。这也是计算机专业很常见的毕业设计选题。
这种选择的好处就是简单,网上模板多。动手能力强的同学,直接去github上拉下来源码,稍微修改一下,一个毕业设计项目就完成了。动手能力弱的同学,也可以使用钞能力低成本完成。
至于缺点嘛,就是这类毕设太常见了,除非UI设计和思路特别出彩,让老师眼前一亮。要不然见多识广的老师,就会带着一颗毫无波澜的内心,用空洞的眼神看完你的演示,机械般的给你打下一个及格分。
当然,对于大部分同学的内心想法就是:能过就行。也有的同学担心,自己的毕设项目和其他同学的重合度很高,老师可能会问一些细节(稀奇古怪)的问题。所以,毕设最好还是自己做,就算找的模板,也要把技术和架构搞清楚。
同时,想要做一个与众不同的毕设,在技术上也一定要“花里胡哨”。
大数据毕设思路
大数据方向的毕设,归根结底还是基于大数据平台进行构思。对于管理系统、商城这种项目毕设来说,我们面向的是编程语言,而大数据主要还是还是面向平台。就像你一说大数据,别人接着就说,大数据...就是那个Hadoop吗?
是的。虽然这个回答很片面,但是对于大数据毕设来说,就是基于Hadoop来发散延伸。
我学的不是大数据专业,也曾有成为一名优(C)秀(V)的Java开发的梦想。后来,17年实习阴差阳错就接触到大数据,并开始自学大数据,所以在18年毕业的时候,就基于大数据完成了毕业设计。这里就简单说一下当初我的毕业设计流程。
- 在虚拟机搭建Hadoop、Hive、Kafka、Spark集群
- 使用Java(建议Python)采集了163w数据放入MySQL
- 用Flume将mysql中的数据实时写入到了Kafka中
- Scala开发sparkstreaming程序,读取kafka数据进行处理,然后写入Kafka
- 使用Flume将kafka数据写入到了HDFS,然后加载到hive进行hsql分析
- 使用Springboot和Vue,开发数据管理系统,对数据进行查询和图形化展示,对接了echarts和百度地图。
就很简单,很简单。大家可以在上面的思路上进行扩展。下面就展开说一下具体步骤。
大数据毕设实践
关于下文中提到的一些大数据概念,可以参考之前写的一篇大数据的文章。
0. 数据准备
大数据,大数据,数据肯定是大的无边无际。那多大才算大?自从18年负责一天1w亿条数据的接入、存储、处理工作之后,我就飘了~ 经常同事告诉我说,要接入一个大数据量的文件接口,我问他多少,他说一天一百亿条,我一般会轻飘飘地说一句,一百亿,算多吗 ~~~
其实,对于毕业设计来说,数据量并不需要那么大,数据在大数据平台中的流转,以此来模拟大数据中的ETL和实时处理,从而体现数据的价值。 那么,数据从哪里获取呢?
方法1,我们可以写一个程序来生成一些测试数据,但是这样的话,数据重合度太高,很难体现出数据分析价值。那么就采用方法二,开发爬虫进行采集网上的数据。
当时我用Java开发了一个爬虫,采集了163w条POI位置数据,存到了MySQL中,完成了数据的准备工作。爬虫的开发还是推荐用Python,17年我还不会Python,后来18年开始学习Python,后来又做了很多爬虫开发工作,再后来写了爬虫系列由浅入深的学习文章,大家也可以参考一下。
1. 大数据平台搭建
欲抬手摘星望月,必先平地起高楼。
上面也说了,大数据还是围绕着平台来搞。当时我在笔记本上搭建了三台centos系统的虚拟机,主要用来搭建下面的集群。
在集群搭建之前,需要完成下列操作系统和环境的配置。
- 安装JDK、Scala
- 三台虚拟机之间进行互信操作
- 安装mysql数据,作为hive的元数据库
Hadoop - 基础核心
Hadoop集群作为大数据基础建设,同时也是大数据核心。其HDFS提供了分布式存储,Yarn提供了计算资源。
如果是毕设的话,可以选择一主两从的架构,即一个NameNode和两个DataNode的架构。如果想要玩的花一点,就选择HA高可用架构,即两主两从,这里就需要四台虚拟机。
关于HA,就是两个NameNode,但是一个NN处于工作状态(active),一个NN处于待命状态(standby)。你可以kill掉active的NN,然后让standby的NN接管集群。
关于HA,在大数据是随处可见的。在Hadoop生态中,集群中的多NN和多DN是HA,HDFS的副本机制也是HA,这一块在论文中还是能体现不少东西的。
下面就是Hadoop集群的NN和DN的基本信息。
Hive - 离线分析
Hive在我的毕设中的角色就是一个数据分析的工具,主要表述的是大数据ETL中L阶段,以及大数据平台的离线分析部分。
Hive是一个数据仓库,关于它的作用就是对HDFS上的数据进行离线分析,虽然它不是数据库,但是大家可以把它当做数据库来用。这里其他基础的概念就不多介绍了。
时至今日,也有很多hive的平替产品,例如号称比hive快800倍的clickhouse,以及druid,但是在应用场景方面和hive还是有一定出入的,有兴趣的可以去了解一下。
大数据在数仓方面,有很多值得玩的平台架构和一些基本概念,ETL描述的就是基于数据仓库进行的数据处理过程。
Spark、Kafka - 实时计算
现在提到实时计算,可能大家首先会想到flink。的确,flink在开源实时领域方面绝对算是TOP了。18年的时候,实时处理还是SparkStreaming应用的比较广泛。所以当时我安装的是Spark集群,来模拟的实时计算。
其实Spark/flink集群都是可以不搭建的,在Spark集群上运行程序属于standlone模式,如果使用yarn模式只需要有客户端就可以了。Spark程序运行在yarn上,能对cpu和内存进行资源隔离,而且不需要要单独维护一个Spark集群。
而作为实时处理配套,Kafka和Rabbitmq之间我还是倾向于Kafka。在Kafka搭建之前,先搭建zookeeper集群,zk是kafka的依赖组件,用来记录一些元数据。
下图命令操作就是消费写入Kafka的数据。
我们要做的就是将数据库/数据仓库中的离线数据,转换为数据流(Data Stream),作为生产者实时写入到Kafka中。
我们开发的Spark/flink程序作为消费者实时读取Kafka中的数据,实时处理并数据计算结果。如下图,为SparkStreaming的程序监控页面。
SparkStreming程序,可以使用Java、Scala、Python开发,但是选择Scala比较好一些。一是Scala的语法结构更贴合流式处理,二是源码都是Scala写的。
Flume - 数据交换神器
当初刚接触Flume的时候,真的没玩明白,云里雾里的。后来深入研究了一下之后,数据在oracle、MySQL、Kafka、HDFS以及其他存储平台上,就可以进行同步。不过MySQL和oracle需要自己定义Source和Sink。
Flume的简单之处在于配置化。当初我将数据从MySql抽取到Kafka,部分配置如下。
顺带一提,在大数据量的情况下,Flume很多参数还是需要调的。当初我将1W亿/天的数据从Kafka落地到HDFS的时候,写了几千行的配置,调了很多参数。
3. 数据展示
最后就是前台的数据展示了,使用了Springboot和Vue做了一个POI数据管理系统。主要实现分类查询和POI搜索标点地图展示功能。
但是这个系统,我只找到了登录页面和地图搜索标点的截图了....
数据管理系统发挥的空间还是挺多的,比如页面样式的优化,再比如前台可以使用Node + Vue,后端使用Springboot来实现前后端分离架构。
结语
主要是给大家提供一个大数据平台毕业设计的基本思路,很多细节的地方还可以优化。我们也不难发现,这里的大数据集群都是独立安装的,我们同样可以使用Ambari进行统一的安装、管理、启动、状态监控。
最近也是在研究Ambari,前几周刚花了一个星期,完成了Ambari2.7.5的编译安装工作。后期的目标是配合docker在一台机器上完成大数据集群的搭建工作,当然这里主要是玩,构建测试环境,性能啥的就不要考虑了哈。
忙完这一阵,完成Scrapy系列文章,就开始着手准备大数据平台系列文章的编写。期待下一次相遇。