每日总结58
摘要:(二)HBase数据库操作 1. 现有以下关系型数据库中的表和数据(见表14-3到表14-5),要求将其转换为适合于HBase存储的表并插入数据: 表14-3 学生表(Student) 学号(S_No) 姓名(S_Name) 性别(S_Sex) 年龄(S_Age) 2015001 Zhangsan
阅读全文
每日总结59
摘要:(1)createTable(String tableName, String[] fields) 创建表,参数tableName为表的名称,字符串数组fields为存储记录各个字段名称的数组。要求当HBase已经存在名为tableName的表的时候,先删除原有的表,然后再创建新的表。 终端查看创建
阅读全文
每日总结60
摘要:实验4 NoSQL和关系数据库的操作比较 1.实验目的 (1)理解四种数据库(MySQL、HBase、Redis和MongoDB)的概念以及不同点; (2)熟练使用四种数据库操作常用的Shell命令; (3)熟悉四种数据库操作常用的Java API。 2.实验平台 (1)操作系统:Linux(建议U
阅读全文
每日总结61
摘要:{ “name”: “zhangsan”, “score”: { “English”: 69, “Math”: 86, “Computer”: 77 } } { “name”: “lisi”, “score”: { “English”: 55, “Math”: 100, “Computer”: 88
阅读全文
每日总结62
摘要:实验5 MapReduce初级编程实践 1.实验目的 (1)通过实验掌握基本的MapReduce编程方法; (2)掌握用MapReduce解决一些常见的数据处理问题,包括数据去重、数据排序和数据挖掘等。 2.实验平台 (1)操作系统:Linux(建议Ubuntu16.04或Ubuntu18.04)
阅读全文
每日总结63
摘要:马上期末周了,最近一直在写实验复习之类的,期待我这个寒假能过得轻松一点,这个学期也快结束了,真的是过的很快,一眨眼就过完了,这学期的变化有很多,也认识了结交了新的朋友,我很开心能遇到他们,同时失去联系的也有几个人,但是可能是缘分尽了吧,我不会伤心,我要继续向前看,大家都会有各自的生活,都会有更好的朋
阅读全文
每日总结54
摘要:2.熟悉常用的Hadoop操作 (1)使用hadoop用户登录Linux系统,启动Hadoop(Hadoop的安装目录为“/usr/local/hadoop”),为hadoop用户在HDFS中创建用户目录“/user/hadoop” (2)接着在HDFS的目录“/user/hadoop”下,创建te
阅读全文
每日总结55
摘要:实验2 熟悉常用的HDFS操作 1.实验目的 (1)理解HDFS在Hadoop体系结构中的角色; (2)熟练使用HDFS操作常用的Shell命令; (3)熟悉HDFS操作常用的Java API。 2. 实验平台 (1)操作系统:Linux(建议Ubuntu16.04或Ubuntu18.04); (2
阅读全文
每日总结56
摘要:(二)编程实现一个类“MyFSDataInputStream”,该类继承“org.apache.hadoop.fs.FSDataInputStream”,要求如下:实现按行读取HDFS中指定文件的方法“readLine()”,如果读到文件末尾,则返回空,否则返回文件一行的文本。 (三)查看Java帮
阅读全文
每日总结57
摘要:实验3 熟悉常用的HBase操作 1.实验目的 (1)理解HBase在Hadoop体系结构中的角色; (2)熟练使用HBase操作常用的Shell命令; (3)熟悉HBase操作常用的Java API。 2.实验平台 (1)操作系统:Linux(建议Ubuntu16.04或Ubuntu18.04);
阅读全文
每日总结50
摘要:from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split, cross_val_score from sklearn.naive_bayes import GaussianN
阅读全文
每日总结51
摘要:from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split # 加载 iris 数据集 iris = load_iris() X, y = iris.data, iris.ta
阅读全文
每日总结52
摘要:from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split # 加载 iris 数据集 iris = load_iris() X, y = iris.data, iris.ta
阅读全文
每日总结53
摘要:1.熟悉常用的Linux操作 1)cd命令:切换目录 (1) 切换到目录“/usr/local” (2) 切换到当前目录的上一级目录 (3) 切换到当前登录Linux系统的用户的自己的主文件夹 2)ls命令:查看文件与目录 查看目录“/usr”下的所有文件和目录 3)mkdir命令:新建目录 (1)
阅读全文
每日总结49
摘要:from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split, cross_val_score from sklearn.neural_network import MLPCla
阅读全文
每日总结48
摘要:from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split, cross_val_score from sklearn.svm import SVC from sklearn.
阅读全文
每日总结46
摘要:from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split # 加载 iris 数据集 iris = load_iris() X, y = iris.data, iris.ta
阅读全文
每日总结47
摘要:from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split, cross_val_score from sklearn.tree import DecisionTreeClas
阅读全文
每日总结45
摘要:import pandas as pd df = pd.read_csv('iris.csv') print(df.head()) from sklearn.datasets import load_iris iris = load_iris() X, y = iris.data, iris.tar
阅读全文