05 2019 档案
在anaconda下创建我的第一个scrapy爬虫——爬取dmoz网站某一网址下的目录的链接名称以及链接地址
摘要:这里我用的python工具是anaconda。 1.首先创建一个scrapy工程: 打开anaconda promt命令行(注意这里不是使用cmd打开windows下的命令行),进入到需要创建工程的目录下,执行“scrapy startproject dmoz“”创建工程 注意这里进入创建工程的目录
阅读全文
ubuntu强制退出当前命令
摘要:ubuntu强制退出当前命令的快捷键:Ctrl + C
阅读全文
anaconda安装scrapy库并新建scrapy工程
摘要:1.在anaconda下安装scrapy库 首先打开anaconda prompt命令行输入界面 在命令行下输入: 输入完成执行该命令后,会进行环境检查.稍等一会: 接着环境监测完成,需要确认继续,输入y 输入y并回车后,自动下载所需文件,等其自动安装。 最后,全部组件安装完成后,会有done的标记
阅读全文
anaconda安装库时报错:CondaHTTPError: HTTP 000 CONNECTION FAILED for url <https://repo.anaconda.com/pkgs/main/win-64/twisted-19.2.0-py37he774522_0.tar.bz2>
摘要:在anaconda下安装scrapy库时,报了CondaHTTPError: HTTP 000 CONNECTION FAILED for url <https://repo.anaconda.com/pkgs/main/win-64/twisted-19.2.0-py37he774522_0.ta
阅读全文
在beautifulsoup安装的前提下,报如下错误cannot import name 'Beautifulsoup4' from 'bs4'的解决办法
摘要:1.检查自己脚本文件的命名是否命名成了bs4.py,如果命名成了bs4.py,程序则会在该文件下去找beautifulsoup,所以会报错。将文件名进行重命名即可。 2.如果第一种办法不能解决,查看自己导入import beautifulsoup的写法,其中B和S都应该大写,否则也是找不到的。正确的
阅读全文