10 2021 档案
摘要:实验操作步骤 1、读取csv文件,并创建dataframe sc = SparkContext() sqlContext = SQLContext(sc) reader = sqlContext.read df_emp = reader.schema("emp_id String, emp_name
阅读全文
摘要:1、Spark测试时出现错误 原因: 由于之前修改了主机名,导致修改后的主机名和hosts文件中的127.0.0.1映射不存在,因此在执行spark-shell和pyspark的时候,会出现错误, 经过不断的测试,找到了问题并成功解决。 解决方法: 使用hostname命令查看当前主机名,我这边是u
阅读全文
摘要:1、实验要求 对给定的一个英文文本,使用Spark完成文本内容的读取并转换成RDD,然后使用RDD的算子统计每个单词出现的次数,将统计结果按从大到小的顺序打印到控制台上。 2、实验代码 import findspark findspark.init() from pyspark import Spa
阅读全文
摘要:一、实验目的 (1)了解HBase的基本概念和数据模型。 (2)掌握HBase Shell客户端操作和HBase的基本方法。 二、实验环境 虚拟机+ubuntu18.04.5 三、实验步骤 1、新建一个表格,表格名为liyiwen17,列族为stuinfo和grades(VERSIONS采用系统默认
阅读全文
摘要:一、实验目的 (1)FTP服务的基本概念与工作原理。 (2)安装FTP服务器。 (3)配置与管理FTP服务器。 二、实验环境 VMware虚拟机 + centos7 三、实验目的 公司内部有一台FTP服务器,其功能主要是维护公司的网站linuxprob.com, 内容包括上传文件、创建目录、更新网页
阅读全文
摘要:一、实验目的 (1)掌握Linux系统中Apache服务器的安装与配置。 (2)掌握个人主页、虚拟目录、基于用户和主机的访问控制及虚拟主机的实现方法。 二、实验环境 VMware虚拟机 + centos7 三、实验要求 配置和管理Apcche服务器 在IP地址为192.168.100.251的服务器
阅读全文
摘要:实验要求 在IP地址为192.168.100.252的服务器上配置主域名服务器来负责对区域“linuxrobe. edu”的解释工作。同时负责对应的反向查找工作。 dns.linuxprobe. com——192.168.100.252。 www.linuxprobe.com——192.168.10
阅读全文
摘要:大道至简,知易行难。 花径不曾缘客扫,蓬门今始为君开。 从今天开始改变,这是对平庸生活最好的回击。 你好,我叫星月故里哟 😃
阅读全文
摘要:欢迎来到我的友链小屋 展示本站所有友情站点,排列不分先后,均匀打乱算法随机渲染的喔! 友链信息 博客名称:星月故里博客网址:https://www.cnblogs.com/ywyc/博客头像:https://pic.cnblogs.com/avatar/2072946/20201001194905.
阅读全文
摘要:一、实验目的 (1)掌握DHCP服务的工作过程。 (2)熟悉配置和管理DHCP服务器。 二、实验方法 配置DHCP服务器,服务器IP为192.168.100.253,为公司内部子网内的客户机提供DHCP服务。具体参数如下: IP地址段:192.168.100.100~192.168.100.200。
阅读全文
摘要:一、实验目的 (1)熟悉Linux分区管理。 (2)掌握Linux系统中的磁盘配额。 二、实验要求 (1) 目的与账号:5个员工的账号为myquota1、myquota2、myquota3、myquota4和myquota5,5个用户的密码都是password,所有用户组 为myquotagrp。
阅读全文
阅读目录(Content)
此页目录为空