01 2021 档案
摘要:1、# python编程基础,主要包括python的基本语法,内建数据结构、函数以及文件操作 # 1、读取数据 import csv f = open('./xiaoqu_data/1xiaoqu_shijiazhuang2.csv', 'r', encoding='UTF-8') reader =
阅读全文
摘要:1、介绍了NumPy的基础内容,主要包括数组及其索引、数组运算、数组读/写以及常用的统计与分析方法 # 1、导入模块 import numpy as np import csv # 2、获取数据 xiaoqu_data = [] with open('./xiaoqu_data/1xiaoqu_sh
阅读全文
摘要:1、去除csv文件中空白行 import json,csv # 这是因为版本的问题调用语句不匹配,更换调用语句为 def json_to_csv(json_path,csv_path): with open(json_path, 'r', encoding='UTF-8') as f2: load_
阅读全文
摘要:1、单个json文件转换成csv文件 import json, codecs,csv # 这是因为版本的问题调用语句不匹配,更换调用语句为 with open('1fangyuan_shijiazhuang.json', 'r', encoding='UTF-8') as f2: load_dict
阅读全文
摘要:一、 搭建环境 1、Python 3.9 Manuals(64-bit)官方使用文档。 2、Python 3.9 Manuals Docs(64-bit)模块速查文档,有网页版。 3、Python 3.9(64-bit)终端。 4、>>> 即是python的交互解释器。 5、python语句后可以加
阅读全文
摘要:scrapy简单命令行 1、创建爬虫项目Scrapy startproject mingzi 2、在spiders目录下创建新的爬虫文件Scrapy genspider mingzi + “域名 ” 3、测试爬虫文件Scrapy check 爬虫名字 4、运行爬虫文件Scrapy crawl 爬虫名
阅读全文
摘要:1、环境安装 (1)安装Anaconda: 下载地址:https://www.anaconda.com/products/individual (2)安装:scrapy (3)安装:Pycharm (4)安装:Xpath helper 教程参考: 获取插件:https://blog.csdn.net
阅读全文
摘要:1、转自:芦荟~lh博主 地址:https://www.cnblogs.com/come202011/p/12128838.html 百度网盘: 链接:https://pan.baidu.com/s/1YuTGrdwwAKQd2sIcuarBHQ 提取码:qb8p
阅读全文
摘要:1、环境安装 (1)安装Anaconda: 下载地址:https://www.anaconda.com/products/individual (2)安装:scrapy (3)安装:Pycharm (4)安装:Xpath helper 教程参考: 获取插件:https://blog.csdn.net
阅读全文
摘要:1、首先感谢肖祥博主的案例:https://www.cnblogs.com/xiao987334176/p/13739249.html 2、环境安装 (1)安装Anaconda: 下载地址:https://www.anaconda.com/products/individual (2)安装:scra
阅读全文