摘要: 这里的 pyspark 是spark安装的文件夹里python文件夹下的,需要复制到anoconda的Lib下site-packages中 代码中没有环境变量的配置,不愿意在本机配置环境变量的可以去查查spark在python中环境变量配置 阅读全文
posted @ 2018-08-27 15:59 沙沙沙啊啊皮 阅读(2198) 评论(0) 推荐(0) 编辑
摘要: # -*- coding:utf-8 -*- from pyspark import SparkContext, SparkConf from pyspark.streaming import StreamingContext import math appName = "jhl_spark_1" # 你的应用程序名称 master = "local" # 设置单机 conf = Spar... 阅读全文
posted @ 2018-08-27 15:55 沙沙沙啊啊皮 阅读(1906) 评论(0) 推荐(0) 编辑
摘要: 简单的java项目开发,所需Jar包见百度网盘 链接:https://pan.baidu.com/s/1jqWwBBNIm1kbQoFSCppEZQ 密码:y4xr 阅读全文
posted @ 2018-08-23 11:44 沙沙沙啊啊皮 阅读(1598) 评论(0) 推荐(0) 编辑
摘要: 一、简介 Flask是一个基于Python的web框架,它的设计目的是提供Web开发所需的最小功能子集。Flask没有绑定诸如数据库查询或者表单处理等功能库,以及它们所组成的整个生态系统。它倾向于对这些功能的实现方式不做任何限定 安装 Flask 最便捷的方式是使用虚拟环境。虚拟环境是 Python 阅读全文
posted @ 2018-08-20 08:40 沙沙沙啊啊皮 阅读(221) 评论(0) 推荐(0) 编辑
摘要: 一、运行F:\Anaconda\Scripts\scrapy startproject scrapy_test生成scrapy项目的默认结构 其中: crapy.cfg: 项目的配置文件。 scrapy_test/: 该项目的python模块。之后您将在此加入代码。 scrapy_test/item 阅读全文
posted @ 2018-08-15 15:59 沙沙沙啊啊皮 阅读(266) 评论(0) 推荐(0) 编辑
摘要: 想爬取https://www.aqistudy.cn/空气质量网上的河北省空气历史数据, 之前使用python写过基于scrapy的爬虫,想故技重施发现爬取不到想要的数据,仔细看过网页源代码后发现表格中的数据是动态加载的,使用开发者工具想要查看传输的数据结果 发现数据被加密了,百度过解决办法后决定选 阅读全文
posted @ 2018-08-14 15:49 沙沙沙啊啊皮 阅读(986) 评论(0) 推荐(0) 编辑