scrapy的cmdline命令和其文件写入乱码问题

启动爬虫的的cmdline命令和文件下载编码问题解决

1.启动爬虫的命令为: scrapy crawl spidername(爬虫名)

2.我们还可以通过下述方式来启动爬虫

步骤一:创建一个.py文件。startspider.py(这里文件的名称可以自己给定)

#!/usr/bin/env python
# -*- coding: utf-8 -*-
from scrapy.cmdline import execute
# 方式一:注意execute的参数类型为一个列表
execute(['scrapy crawl spidername'.split())
# 方式二:注意execute的参数类型为一个列表,保存文件为(shujvtable.json) 
execute(['scrapy','crawl','lagouspider','-o','shujvtable.json'])

步骤二:通过python startspider.py来运行此文件即可

scrapy 爬取数据保存为本地JSON文件 - 编码问题

保存 json 文件 命令行启动如下:

scrapy crawl 程序名 -o item.json

上面保存的json文件 中文内容 会是 二进制字符,使用如下命名进行编码:

scrapy crawl 程序名 -o item.json -sscrapy crawl 程序名 -o item.json -s FEED_EXPORT_ENCODING=UTF-8

也可以在settings.py 文件中设置添加(推荐)

FEED_EXPORT_ENCODING = 'UTF8'
posted @ 2019-01-01 17:24  小猫妮  阅读(532)  评论(0编辑  收藏  举报