posts - 301,  comments - 19,  views - 65万
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

随笔分类 -  python

启动django服务器访问admin站点时,django服务器自动关闭的问题解决方案。
摘要:出现这个问题时请检查一下使用的python版本与django版本。 这个问题的出现是django3.0与python3.7.0共同使用的bug。 将python升级(在python3.7.1版本中这个问题得到了解决)或者将django降级(django2.2/2.1均可正常工作)。 到此,问题就完美 阅读全文
posted @ 2020-04-18 11:43 wyhluckydog 阅读(1014) 评论(0) 推荐(0) 编辑
使用XGBoost实现多分类预测的实践
摘要:使用XGBoost实现多分类预测的实践代码 import pandas as pd import numpy as np import xgboost as xgb from sklearn.preprocessing import LabelEncoder from sklearn.model_s 阅读全文
posted @ 2020-01-14 22:39 wyhluckydog 阅读(6876) 评论(0) 推荐(0) 编辑
windows10下使用pip安装sklearn
摘要:首先,三个都是数据处理包,但是,要安装scipy就得先安装numpy,要安装sklearn就得先有numpy和scipy。所以,三者的安装顺序为:numpy > scipy > sklearn。 1.numpy安装 若像普通安装包一样直接在命令提示符cmd中输入 pip install numpy 阅读全文
posted @ 2019-11-05 16:40 wyhluckydog 阅读(6692) 评论(0) 推荐(0) 编辑
安装pytorch时报错:ModuleNotFoundError: No module named 'tools.nnwrap'
摘要:在使用pycharm安装torch包时,一直报错ModuleNotFoundError: No module named 'tools.nnwrap'。解决了一上午,放弃了使用pycharm安装,改用pip进行安转,成功安装,记录一下解决的过程: 打开PyTorch官网(官网),点击Get Star 阅读全文
posted @ 2019-10-14 11:08 wyhluckydog 阅读(22112) 评论(2) 推荐(1) 编辑
解决Python中设置与获取cookie时出现的中文编码问题。
摘要:python中直接设置与获取cookie时,会出现编码错误。 (1)在设置cookie时没有考虑编码问题,例如书写的格式为: 当cookie中含有中文时,可能会出现下面的错误: (2)我们可能会想到在设置cookie值的时候通过encode('utf-8')函数进行转码,于是进一步改进的代码为: 这 阅读全文
posted @ 2019-08-22 20:10 wyhluckydog 阅读(1646) 评论(0) 推荐(0) 编辑
修改初始Manager QuerySets,重写Manager.get_query_set()函数之后,发现并没有按照我们指定的方法执行。
摘要:重写Manager.get_query_set()函数之后,发现并没有按照我们指定的方法执行。原因是方法名不正确,正确的函数名为get_queryset(),只有使用正确的函数名才会覆盖原来的方法。 get_queryset()函数是all()函数执行时调用的一个方法,我们通过自定义get_quer 阅读全文
posted @ 2019-08-20 17:24 wyhluckydog 阅读(354) 评论(0) 推荐(0) 编辑
django中自定义了manager函数,使用的时候报错AttributeError: 'Manager' object has no attribute 'title_count'
摘要:models.py代码如下: 其中BookManeger类继承了models.Manager类,用于进行自定义Manager方法。 通过以下命令来检测自定义的方法的可用性: 输出结果表示方法能够正常运行。 但是在运行成功之前报错:AttributeError: 'Manager' object ha 阅读全文
posted @ 2019-08-20 16:54 wyhluckydog 阅读(4341) 评论(0) 推荐(0) 编辑
django模型篇:一对一、一对多、多对多,添加,批量插入和查询操作
摘要:模型类 批量插入 一对多和多对多 添加操作 查询操作 基于对象的跨表查询(基于子查询) # 基于双下划线的跨表查询(基于join实现的)# KEY:正向查询按字段,反向查询按表明小写 # 聚合和分组 转载自:https://www.cnblogs.com/ls1997/p/10970583.html 阅读全文
posted @ 2019-08-20 15:34 wyhluckydog 阅读(5242) 评论(0) 推荐(0) 编辑
from django.core.context_processors import crsf报错
摘要:from django.core.context_processors import crsf报错: 原因是crsf包的位置不在django.core.context_processors中,而是在django.template.context_processors下。 所以我们将导包的代码改为: 阅读全文
posted @ 2019-08-16 10:24 wyhluckydog 阅读(311) 评论(0) 推荐(0) 编辑
python报错:Exception Value:can only concatenate str (not "bytes") to str
摘要:报错的源代码为: 代码中标红的位置可以看到使用了encode函数进行了转码,因为encode转码返回的是bytes类型的数据,不可以和str类型的数据直接相加。 由于函数的第一句已经对request请求进行的转码,所以这里我们将后面的encode函数去掉,错误即可解决。 更新后的代码为: 阅读全文
posted @ 2019-08-16 09:54 wyhluckydog 阅读(15166) 评论(0) 推荐(0) 编辑
使用tkinter设计一个简单的加法计算器
摘要:使用tkinter设计一个简单的加法计算器: (1)在数字输入框中,只能输入数字,无法输入其他字符,当输入其他字符时在输入框中不会显示并自动删除这些非数字字符。 (2)结果框设置为只读,这样计算结果无法人为去干扰。 代码如下: 运行结果为: 阅读全文
posted @ 2019-06-02 20:35 wyhluckydog 阅读(1902) 评论(0) 推荐(0) 编辑
在anaconda下创建我的第一个scrapy爬虫——爬取dmoz网站某一网址下的目录的链接名称以及链接地址
摘要:这里我用的python工具是anaconda。 1.首先创建一个scrapy工程: 打开anaconda promt命令行(注意这里不是使用cmd打开windows下的命令行),进入到需要创建工程的目录下,执行“scrapy startproject dmoz“”创建工程 注意这里进入创建工程的目录 阅读全文
posted @ 2019-05-30 15:05 wyhluckydog 阅读(1161) 评论(0) 推荐(0) 编辑
anaconda安装scrapy库并新建scrapy工程
摘要:1.在anaconda下安装scrapy库 首先打开anaconda prompt命令行输入界面 在命令行下输入: 输入完成执行该命令后,会进行环境检查.稍等一会: 接着环境监测完成,需要确认继续,输入y 输入y并回车后,自动下载所需文件,等其自动安装。 最后,全部组件安装完成后,会有done的标记 阅读全文
posted @ 2019-05-14 09:19 wyhluckydog 阅读(2738) 评论(0) 推荐(0) 编辑
anaconda安装库时报错:CondaHTTPError: HTTP 000 CONNECTION FAILED for url <https://repo.anaconda.com/pkgs/main/win-64/twisted-19.2.0-py37he774522_0.tar.bz2>
摘要:在anaconda下安装scrapy库时,报了CondaHTTPError: HTTP 000 CONNECTION FAILED for url <https://repo.anaconda.com/pkgs/main/win-64/twisted-19.2.0-py37he774522_0.ta 阅读全文
posted @ 2019-05-13 20:22 wyhluckydog 阅读(24047) 评论(0) 推荐(3) 编辑
在beautifulsoup安装的前提下,报如下错误cannot import name 'Beautifulsoup4' from 'bs4'的解决办法
摘要:1.检查自己脚本文件的命名是否命名成了bs4.py,如果命名成了bs4.py,程序则会在该文件下去找beautifulsoup,所以会报错。将文件名进行重命名即可。 2.如果第一种办法不能解决,查看自己导入import beautifulsoup的写法,其中B和S都应该大写,否则也是找不到的。正确的 阅读全文
posted @ 2019-05-01 09:40 wyhluckydog 阅读(9577) 评论(2) 推荐(1) 编辑
python requests库爬取网页小实例:ip地址查询
摘要:ip地址查询的全代码: 智力使用ip183网站进行ip地址归属地的查询,我们在查询的过程是通过构造url进行查询的,将要查询的ip地址以参数的形式添加在ip183url后面即可。 阅读全文
posted @ 2019-04-24 08:56 wyhluckydog 阅读(893) 评论(0) 推荐(0) 编辑
python requests库爬取网页小实例:爬取网页图片
摘要:爬取网页图片: 阅读全文
posted @ 2019-04-23 21:37 wyhluckydog 阅读(815) 评论(0) 推荐(0) 编辑
python requests库网页爬取小实例:百度/360搜索关键词提交
摘要:百度/360搜索关键词提交全代码: #百度/360搜索关键词提交import requestskeyword='Python'try: #百度关键字 # kv={'wd':keyword} #360关键字 kv={'q':keyword} r=requests.get("http://baidu.c 阅读全文
posted @ 2019-04-23 21:19 wyhluckydog 阅读(1450) 评论(0) 推荐(0) 编辑
python requests库网页爬取小实例:亚马逊商品页面的爬取
摘要:由于直接通过requests.get()方法去爬取网页,它的头部信息的user-agent显示的是python-requests/2.21.0,所以亚马逊网站可能会拒绝访问。所以我们要更改访问的头部信息以对网站进行访问,更改头部信息模拟浏览器访问。 阅读全文
posted @ 2019-04-23 21:11 wyhluckydog 阅读(1697) 评论(0) 推荐(0) 编辑
python使用requests库爬取网页的小实例:爬取京东网页
摘要:爬取京东网页的全代码: 阅读全文
posted @ 2019-04-23 20:50 wyhluckydog 阅读(879) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示