上一页 1 ··· 23 24 25 26 27 28 29 30 31 ··· 33 下一页
摘要: 本文展示了两张思维导图,分别是MongoDB 3.6、4.0的所有权限操作,未做深入研究,仅仅是列出来。 3.6总共9类105个操作,4.0版本比3.6多了两类操作,同时增加了3个操作,共11类108个操作。 程序员、架构师熟练掌握的操作的范围应该是不同的吧,根据自己的需要逐个熟悉、突破。 Mong 阅读全文
posted @ 2018-07-09 11:41 快乐的欧阳天美1114 阅读(182) 评论(0) 推荐(0) 编辑
摘要: 官文列举如下(文档不长,过英语四级者可以轻松阅读,就不需要看本文额)(基于MongoDB 3.6的文档,4.0也没有变化): Role-Based Access Control Built-In Roles(1) Built-In Roles(2)-详情 MongoDB中的角色包含了 对 操作和资源 阅读全文
posted @ 2018-07-09 09:50 快乐的欧阳天美1114 阅读(261) 评论(0) 推荐(0) 编辑
摘要: 本文展示MongoDB 3.6、4.0的官方Server文档的结构图——一眼可见完整的知识脉络图。不过,MongoDB除了Server的文档外,还有DRIVERS、CLOUD、TOOLS、DUIDES的文档。 MongoDB最新版本是4.0(已看到园友发布的安装博文),而孤使用的是3.6,所以,提供 阅读全文
posted @ 2018-07-06 22:50 快乐的欧阳天美1114 阅读(259) 评论(0) 推荐(0) 编辑
摘要: Windows 10家庭中文版,MongoDB 3.6.3, 前言 刚刚安装好了MongoDB,启动了服务器-mongod命令,启动了MongoDB shell-mongo命令,不过,全程都没有使用username、password!震惊! 原来,MongoDB默认是没有用户认证的,也没有默认用户, 阅读全文
posted @ 2018-07-05 15:08 快乐的欧阳天美1114 阅读(2711) 评论(3) 推荐(0) 编辑
摘要: Windows 10家庭中文版,MongoDB 3.6.3, 最近在学习Scrapy,可以却从未将scraped data存储到数据库中。在看过一些文档后,Scrapy会和MongoDB结合使用(还有Redis),并将scraped data存储到其中。 为什么是MongoDB,而不是MySQL呢? 阅读全文
posted @ 2018-07-05 11:18 快乐的欧阳天美1114 阅读(11704) 评论(0) 推荐(2) 编辑
摘要: 上月底开始学习Scrapy爬虫框架,看了一些中文文档,讲应用、讲基础的,对其有一些了解了。终于在28日打开Scrapy的官网,并制作了其文档的思维导图,进而开启了其文档的阅读之旅。 本文展示了从6月28日到7月3日每天阅读过的Scrapy文档,记录其整个过程和读后感。 不过,这是第一次做这样的记录, 阅读全文
posted @ 2018-07-04 14:52 快乐的欧阳天美1114 阅读(216) 评论(0) 推荐(0) 编辑
摘要: Windows 10家庭中文版,Python 3.6.4,Scrapy 1.5.0, 在创建了爬虫程序后,就可以运行爬虫程序了。Scrapy中介绍了几种运行爬虫程序的方式,列举如下: -命令行工具之scrapy runspider(全局命令) -命令行工具之scrapy crawl(项目级命令) - 阅读全文
posted @ 2018-07-04 13:32 快乐的欧阳天美1114 阅读(52445) 评论(6) 推荐(5) 编辑
摘要: Windows 10家庭中文版,Python 3.6.4,Scrapy 1.5.0, 在Scrapy中,建立爬虫程序或项目的方式有两种(在孤读过Scrapy的大部分文档后): 1.继承官方Spider类(5个) 2.命令行工具scrapy genspider(4个) 方式一:继承官方Spider类 阅读全文
posted @ 2018-07-04 09:44 快乐的欧阳天美1114 阅读(2671) 评论(0) 推荐(0) 编辑
摘要: Windows 10家庭中文版,Python 3.6.4,Scrapy 1.5.0, 上午看了Scrapy的Spiders官文,并按照其中的SitemapSpider的示例练习,发现官文的示例存在问题——SitemapSpider下的Spider类没有name属性。 这导致孤编写的测试程序也没有na 阅读全文
posted @ 2018-07-01 13:17 快乐的欧阳天美1114 阅读(457) 评论(0) 推荐(0) 编辑
摘要: Windows 10家庭中文版,Python 3.6.4,virtualenv 16.0.0,Scrapy 1.5.0, 在最初使用Scrapy时,使用编辑器或IDE手动编写模块来创建爬虫(Spider)程序,然后使用scrapy crawl命令执行Spider。 这种方式很初级、繁琐,不适合更大型 阅读全文
posted @ 2018-06-30 23:00 快乐的欧阳天美1114 阅读(704) 评论(0) 推荐(0) 编辑
上一页 1 ··· 23 24 25 26 27 28 29 30 31 ··· 33 下一页