会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Hao_ran
博客园
首页
新随笔
联系
订阅
管理
2022年4月17日
模板类下压栈c++
摘要: FixedCapacityStackOfStrings.h using namespace std; #include <string> #include <vector> template <class Type> class FixedCapacityStackOfStrings { priva
阅读全文
posted @ 2022-04-17 20:42 Hao_ran
阅读(27)
评论(0)
推荐(0)
2021年7月29日
关于迭代器
摘要: 为什么要使用迭代器: 1.可以不了解集合内部的数据结构,就可以直接遍历 2.不暴露内部的数据,可以直接外部遍历,提高安全性 3.适用性强,基本上的集合都能使用迭代器 Java中的迭代器 Java Iterator(迭代器)不是一个集合,它是一种用于访问集合的方法。 迭代器(it)的基本操作是 nex
阅读全文
posted @ 2021-07-29 10:44 Hao_ran
阅读(72)
评论(0)
推荐(0)
2021年7月28日
算法4:下压栈C++实现
摘要: 待解决的问题: 1.未实现迭代器 2.头文件和源文件内容只能放在一个文件里面编译,否则会出现"LNK2019 无法解析的外部符号 ... ..."。 代码: #include <vector> #include <iostream> #include <fstream> #include <stri
阅读全文
posted @ 2021-07-28 10:48 Hao_ran
阅读(50)
评论(0)
推荐(0)
2021年7月21日
算法4:定容栈C++实现
摘要: 头文件: #include <string> #include <vector> using namespace std; class FixedCapacityStackOfStrings { private: vector<string> a; int N; public: FixedCapac
阅读全文
posted @ 2021-07-21 17:36 Hao_ran
阅读(44)
评论(0)
推荐(0)
2020年12月20日
XPath的使用
摘要: 1.使用实例 通过Python的lxml库,利用XPath进行HTML的解析。 xpath对网页解析 代码: from lxml import etree text = ''' <div> <ul> <li class="item-0"><a href="link1.html">first item
阅读全文
posted @ 2020-12-20 15:33 Hao_ran
阅读(403)
评论(0)
推荐(0)
2020年12月18日
正则表达式
摘要: 1.正则表达式 正则表达式用来匹配一段字符串,如果字符串符合正则表达式的规则要求,就会被提取出来。 开源中国提供的正则表达式测试工具:https://tool.oschina.net/regex/# 2.match() Python的re库提供了整个正则表达式的实现,一个常用的匹配方法是match(
阅读全文
posted @ 2020-12-18 15:08 Hao_ran
阅读(156)
评论(0)
推荐(0)
2020年12月16日
requests(2):高级用法
摘要: 1.文件上传 代码: import requests files={'file':open('favicon.ioc','rb')}#将之前保存的图标上传 r=requests.post("http://httpbin.org/post",files=files) print(r.text) 运行结
阅读全文
posted @ 2020-12-16 18:18 Hao_ran
阅读(334)
评论(0)
推荐(0)
2020年12月15日
requests(1):基本用法
摘要: requests中可以使用get()方法来实现与urlopen()相同的操作,得到Response对象。 也可以使用其他的方法:post()、put()、delete()等方法来实现post、put、delete等请求。 1.构建一个最简单的GET请求。 代码: import requests r=
阅读全文
posted @ 2020-12-15 20:47 Hao_ran
阅读(144)
评论(0)
推荐(0)
2020年12月5日
urllib.request模块(4):分析Robots协议
摘要: 1.Robots协议 robots协议_百度百科 (baidu.com) User-agent描述了搜索爬虫的名称,将其设置为*则代表该协议对任何爬虫都有效。 Disallow指定了不允许抓取的目录。Allow一般和Disallow一起使用,用来排除某些限制。 #禁止所有爬虫访问任何目录 User-
阅读全文
posted @ 2020-12-05 19:01 Hao_ran
阅读(177)
评论(0)
推荐(0)
urllib.request模块(3):解析链接
摘要: 1.urlparse() 作用:实现url的识别和分段。 代码: from urllib.parse import urlparse result=urlparse('http://www.baidu.com/index.html;user?id=5#comment') print(type(res
阅读全文
posted @ 2020-12-05 16:58 Hao_ran
阅读(238)
评论(0)
推荐(0)
下一页
公告