摘要: Python520表白神器!心爱的她 想要学习Python?Python学习交流群:984632579满足你的需求,资料都已经上传群文件,可以自行下载! 如果表白失败了!那么........... Python爬取妹子图 安慰你幼小的心灵,毕竟今天都是秀秀秀秀,一心只为“圣贤书”,两耳不闻窗外事 P 阅读全文
posted @ 2018-05-20 16:54 娇兮心有之 阅读(22154) 评论(1) 推荐(0) 编辑
摘要: 什么是网络爬虫? 网络爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件 爬虫有什么用? 做为通用搜索引擎网页收集 阅读全文
posted @ 2018-05-20 15:12 娇兮心有之 阅读(19863) 评论(1) 推荐(0) 编辑
摘要: 什么是网络爬虫 网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。 环境:Python3.6+Windows 开发工具:你喜欢用哪个就用哪个,你开 阅读全文
posted @ 2018-05-19 22:34 娇兮心有之 阅读(2839) 评论(0) 推荐(1) 编辑
摘要: 环境:Python3.6+Windows 开发工具:你喜欢用啥就用啥,总而言之,言而总之 你开心就好 使用的Python模块 requests Requests 是用Python语言编写,基于urllib,采用 Apache2 Licensed 开源协议的 HTTP 库。它比urllib 更加方便, 阅读全文
posted @ 2018-05-19 20:52 娇兮心有之 阅读(790) 评论(0) 推荐(1) 编辑
摘要: 环境:Python3.6+Windows 开发工具:Pycharm/Sublime 什么的都可以 模块: 安装cocos模块 如果直接pip install cocos 会安装不了 代码详解: 虽然Python开发游戏不是 Python的主流方向,但是对于自己开发的小游戏玩起来也还是蛮有意思的! 那 阅读全文
posted @ 2018-05-19 16:13 娇兮心有之 阅读(2188) 评论(0) 推荐(1) 编辑
摘要: 环境: Python3 + windows。 开发工具:Anaconda + Jupyter / VS Code。 学习效果: 认识爬虫 / Robots协议 了解浏览器开发者工具 动态加载页面的处理 手机客户端页面的数据采集 环境: Python3 + windows。 开发工具:Anaconda 阅读全文
posted @ 2018-05-18 15:34 娇兮心有之 阅读(10384) 评论(0) 推荐(1) 编辑
摘要: 一个栗子 基本数据类型 Numpy 常见的基本数据类型如下: 以上这些数据类型都可以通过 np.bool_ 、 np.float32 等方式访问。 这些类型都可以在创建 ndarray 时通过参数 dtype 来指定。 类型转换 要转换数组的类型,请使用.astype()方法(首选)或类型本身作为函 阅读全文
posted @ 2018-05-17 16:23 娇兮心有之 阅读(1144) 评论(0) 推荐(1) 编辑
摘要: 一:类型和运算 –1.1 寻求帮助: – 1.2 测试类型的三种方法,推荐第三种 – 1.3 Python数据类型:哈希类型、不可哈希类型 – 1.4 数字常量 – 1.5 数字的表达式操作符 – 1.6 整数可以利用bit_length函数测试所占的位数 – 1.7 repr和str显示格式的区别 阅读全文
posted @ 2018-05-16 20:49 娇兮心有之 阅读(847) 评论(0) 推荐(0) 编辑
摘要: Python 之所以这么流行得益于它适用于很多不同领域,目前 Python 使用最广泛的领域包括有 Python Web(后端)开发、数据分析挖掘、网络爬虫、机器学习人工智能、运维开发等等。不管你选择哪个方向,把Python基础学牢有利于你在该领域更好的施展拳脚。 入门系列 《Python编程:从入 阅读全文
posted @ 2018-05-15 22:54 娇兮心有之 阅读(48272) 评论(5) 推荐(4) 编辑
摘要: 是不是很想知道那三步? 其实很简单! 1、打开网页,获取源码 2、获取图片 3、保存图片地址与下载图片 打开网页,获取源码 *由于多人同时爬虫某个网站时候,会造成数据冗余,网站崩溃,所以一些网站是禁止爬虫的,会返回403拒绝访问的错误信息。 获取不到想要的内容/请求失败/IP容易被封……..等 *解 阅读全文
posted @ 2018-05-15 21:33 娇兮心有之 阅读(1605) 评论(0) 推荐(0) 编辑