CSS Ribbon

Reproducing the GitHub Ribbon in CSS

上一页 1 ··· 7 8 9 10 11 12 13 14 15 ··· 33 下一页

2018年12月14日

【leecode】小练习(简单8题)

摘要: def twoSum(nums, target): """ 给定 nums = [2, 7, 11, 15], target = 9 因为 nums[0] + nums[1] = 2 + 7 = 9 所以返回 [0, 1] :type nums: List[int] :type target: in 阅读全文

posted @ 2018-12-14 11:24 pandaboy1123 阅读(988) 评论(0) 推荐(0) 编辑

2018年12月10日

路飞学城Python-Day171

摘要: Evernote Export 线性结构: python的列表操作 列表是如何存储的:顺序存储的,是一块连续的内存,内存是一堆格子,列表是一串连续的编号 32位机器上一个整数占4个字节 数组和列表有2点不同,1.数组的元素类型要求是相同的;2.数组长度固定 列表:1.python中列表的元素类型可以 阅读全文

posted @ 2018-12-10 20:40 pandaboy1123 阅读(172) 评论(0) 推荐(0) 编辑

2018年12月9日

【路飞学城Day170】算法小结

摘要: Evernote Export 算法的思想是能省则省,内存能少则少,时间运行能少尽量少 堆排序的时间复杂度O(nlogn) 堆排序的内置模块heapq 常用函数 heapify(x) heappush(heap, item) heappop(heap) topkey问题 现在有n个数,设计算法得到前 阅读全文

posted @ 2018-12-09 16:33 pandaboy1123 阅读(219) 评论(0) 推荐(0) 编辑

2018年11月28日

【路飞学城第七模块考核】

摘要: 7. class为wd的div标签有一个子标签ul,ul下有十个li标签,每一个li标签下都有一个a标签,如何编写xpath表达式可以解析到a标签中的文本内容 8. 简述BeautifulSoup模块中find和findall方法的区别 9. 简述BeautifulSoup模块中select方法的使 阅读全文

posted @ 2018-11-28 08:02 pandaboy1123 阅读(510) 评论(0) 推荐(0) 编辑

2018年11月26日

【leecode】独特的电子邮件地址

摘要: 每封电子邮件都由一个本地名称和一个域名组成,以 @ 符号分隔。 例如,在 alice@leetcode.com中, alice 是本地名称,而 leetcode.com 是域名。 除了小写字母,这些电子邮件还可能包含 ',' 或 '+'。 如果在电子邮件地址的本地名称部分中的某些字符之间添加句点(' 阅读全文

posted @ 2018-11-26 17:42 pandaboy1123 阅读(245) 评论(0) 推荐(0) 编辑

【第七模块】爬虫总结

摘要: 阅读全文

posted @ 2018-11-26 11:17 pandaboy1123 阅读(119) 评论(0) 推荐(0) 编辑

2018年11月25日

【leecode】宝石与石头

摘要: 给定字符串J 代表石头中宝石的类型,和字符串 S代表你拥有的石头。 S 中每个字符代表了一种你拥有的石头的类型,你想知道你拥有的石头中有多少是宝石。 J 中的字母不重复,J 和 S中的所有字符都是字母。字母区分大小写,因此"a"和"A"是不同类型的石头。 You're given strings J 阅读全文

posted @ 2018-11-25 22:06 pandaboy1123 阅读(154) 评论(0) 推荐(0) 编辑

2018年11月18日

路飞学城Python-Day153

摘要: Scrapy核心组件 引擎 用来处理这个系统的数据流处理,出发事务(框架核心) 引擎会监测到爬虫文件中有没有定义url,如果有url,引擎就会调用一个startrequest的一个父类的方法,对爬虫文件中起始url列表发起请求,这些对象都会提交给引擎 管道 负责处理爬虫从网页中抽取出来的实体,主要的 阅读全文

posted @ 2018-11-18 16:17 pandaboy1123 阅读(163) 评论(0) 推荐(0) 编辑

2018年11月16日

企查查爬虫

该文被密码保护。 阅读全文

posted @ 2018-11-16 17:11 pandaboy1123 阅读(4) 评论(0) 推荐(0) 编辑

路飞学城Python-Day152

摘要: 爬取搜狗首页页面数据 import urllib.request # 1.指定url url = r'https://www.sogou.com/' # 2.发起请求 # urlopen()参数内部可以指定填写url,且返回一个函数对象 res = urllib.request.urlopen(ur 阅读全文

posted @ 2018-11-16 17:09 pandaboy1123 阅读(263) 评论(0) 推荐(0) 编辑

上一页 1 ··· 7 8 9 10 11 12 13 14 15 ··· 33 下一页

导航