摘要:
1.用Hive对爬虫大作业产生的文本文件(或者英文词频统计下载的英文长篇小说)进行词频统计。 启动Hadoop。 建表 ,把hdfs文件系统中文件夹里的文本文件load进去,写hiveQL命令统计 结果: 阅读全文
摘要:
1.启动hadoop 2.Hdfs上创建文件夹 3.上传文件至hdfs 4.启动Hive 5.创建原始文档表 6.导入文件内容到表docs并查看 7.用HQL进行词频统计,结果放在表word_count里 8.查看统计结果 阅读全文
摘要:
1.在本地Linux文件系统的“/home/hadoop/”目录下创建一个文件txt,里面可以随意输入一些单词. 2.在本地查看文件位置(ls) 3.在本地显示文件内容 4.使用命令把本地文件系统中的“txt”上传到HDFS中的当前用户目录的input目录下。 5.查看hdfs中的文件(-ls) 6 阅读全文
摘要:
1.爬取数据需要的类库 2.安装wordcloud库时候回发生报错 解决方法是: 安装提示报错去官网下载vc++的工具,但是安装的内存太大只是几个G 去https://www.lfd.uci.edu/~gohlke/pythonlibs/#wordcloud下载whl文件,选取对应python的版本 阅读全文
摘要:
1. 将新闻的正文内容保存到文本文件。 2. 将新闻数据结构化为字典的列表: 单条新闻的详情-->字典news 一个列表页所有单条新闻汇总-->列表newsls.append(news) 所有列表页的所有新闻汇总列表newstotal.extend(newsls) def getClickCount 阅读全文
摘要:
1. 用正则表达式判定邮箱是否输入正确。 2. 用正则表达式识别出全部电话号码。 9. 取出一个新闻列表页的全部新闻 包装成函数def getListPage(pageUrl): 11. 获取全部新闻列表页的全部新闻详情。 3. 用正则表达式进行英文分词。re.split('',news) 4. 使 阅读全文
摘要:
1. 用requests库和BeautifulSoup库,爬取校园新闻首页新闻的标题、链接、正文。 2. 分析字符串,获取每篇新闻的发布时间,作者,来源,摄影等信息。 3. 将其中的发布时间由str转换成datetime类型。 阅读全文
摘要:
取出h1标签的文本: 取出a标签的链接: 取出所有li标签的所有内容: 取出一条新闻的标题、链接、发布时间、来源: 阅读全文
摘要:
列表相对于元祖而言,可以进行添加,插入,修改,删除。元组则无法进行修改 字典是将数据以键值对的形式进行存储,无序通过键找到对应的值 阅读全文