使用scrapy爬取的数据保存到CSV文件中,不使用命令
pipelines.py文件中
import codecs import csv # 保存到CSV文件中 class CsvPipeline(object): def __init__(self): self.file = codecs.open('a.csv', 'w', encoding='utf_8_sig') def process_item(self, item, spider): fieldnames = ['title', 'img_url', 'download_http'] w = csv.DictWriter(self.file, fieldnames=fieldnames) w.writerow(item) return item def close_spider(self, spider): self.file.close()