上一页 1 ··· 6 7 8 9 10 11 12 13 14 ··· 23 下一页
摘要: 作为一个后端程序员,前端做的确实很丑,所以就学习了一下layui框架的使用。数据表格主要的问题就是传输数据的问题,这里我用我的前后端代码来做一个实际的分解。 前端部分 可以到layui官网示例中找到数据表格,复制前台代码。也可以使用我的代码。 这部分主要更改的是自己的表格属性,传值的url。细节我都 阅读全文
posted @ 2022-05-20 09:47 权。 阅读(826) 评论(0) 推荐(1) 编辑
摘要: 访问外网,程序跑的时间会长一点,耐心等待! 全部源代码: # -*- coding = utf-8 -*- # @Time : 2022/5/13 9:33 # @Author :王敬博 # @File : spider.py # @Software: PyCharm from bs4 import 阅读全文
posted @ 2022-05-13 20:25 权。 阅读(195) 评论(0) 推荐(1) 编辑
摘要: 初学爬虫,学习一下三方库的使用以及简单静态网页的分析。就跟着视频写了一个爬取豆瓣Top250排行榜的爬虫。 网页分析 我个人感觉写爬虫最重要的就是分析网页,找到网页的规律,找到自己需要内容所在的地方,细化到他在哪个div里面,在哪个class里面,在哪个a标签里面。 从上面的图中可以看出,有很多信息 阅读全文
posted @ 2022-05-07 21:48 权。 阅读(8531) 评论(0) 推荐(1) 编辑
摘要: 一般我们爬取一些简单的静态网页是通过获取网页全部源代码,然后再通过正则解析出我们自己需要的数据。 所以我们一般可以写好一个向网站发起请求的方法,作为一个函数,在写其他爬虫的时候可以直接应用。 下面是我的源代码 def askURL(url): head = { #伪装请求头,模拟浏览器访问 "Use 阅读全文
posted @ 2022-05-07 20:28 权。 阅读(128) 评论(0) 推荐(0) 编辑
摘要: 代码 阅读全文
posted @ 2022-04-30 22:21 权。 阅读(36) 评论(0) 推荐(0) 编辑
摘要: 流程分析 一、导入需要的三方库 import re #正则表表达式文字匹配 import requests #指定url,获取网页数据 import json #转化json格式 import os #创建文件 二、确定目标地址 快手的目标地址需要在https://www.kuaishou.com网 阅读全文
posted @ 2022-04-29 22:47 权。 阅读(942) 评论(1) 推荐(1) 编辑
摘要: 今天用python爬取了快手1个G的短视频,终于体会到了程序员的快乐,嘿嘿嘿。 下期更新源码!!! 阅读全文
posted @ 2022-04-28 21:00 权。 阅读(133) 评论(1) 推荐(0) 编辑
摘要: 一、爬虫简介: 网络爬虫(又称为网页蜘蛛,网络机器人,在 FOAF 社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的 程序 或者 脚本 。 另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。 中文名: 网络爬虫 作用: 抓取网站上的信息 别名: 网络蜘蛛、蠕 阅读全文
posted @ 2022-04-27 16:22 权。 阅读(697) 评论(2) 推荐(2) 编辑
摘要: 一、校验数字的表达式 1. 数字:^[0-9]*$ 2. n位的数字:^\d{n}$ 3. 至少n位的数字:^\d{n,}$ 4. m-n位的数字:^\d{m,n}$ 5. 零和非零开头的数字:^(0|[1-9][0-9]*)$ 6. 非零开头的最多带两位小数的数字:^([1-9][0-9]*)+( 阅读全文
posted @ 2022-04-25 20:33 权。 阅读(65) 评论(0) 推荐(0) 编辑
摘要: 打开文件使用的模式的列表 编号模式描述 1 r 打开的文件为只读模式。文件指针位于文件的开头,这是默认模式。 2 rb 打开仅用二进制格式读取的文件。文件指针位于文件的开头,这是默认模式。 3 r+ 打开读写文件。文件指针放在文件的开头。 4 rb+ 以二进制格式打开一个用于读写文件。文件指针放在文 阅读全文
posted @ 2022-04-22 21:46 权。 阅读(63) 评论(0) 推荐(0) 编辑
上一页 1 ··· 6 7 8 9 10 11 12 13 14 ··· 23 下一页