上一页 1 ··· 44 45 46 47 48 49 50 51 52 ··· 58 下一页
摘要: Data Volume 数据库容器的数据如何才能不会丢失?Docker的持久化存储技术。Docker的数据共享技术能极大提高开发人员的开发效率,边写代码,边看运行结果。 Docker持久化数据 基于本地文件系统的Volume。 可以在执行Docker create或Docker run时,通过-v参 阅读全文
posted @ 2018-11-27 00:03 元贞 阅读(284) 评论(0) 推荐(0) 编辑
摘要: 多容器复杂应用的部署 基于 flask容器,链接外部另一个redis 容器 docker pull redis sudo docker run -d --name redis redis # redis 没必要映射端口出来 创建flask镜像 docker build -t kvin/flask-r 阅读全文
posted @ 2018-11-26 23:46 元贞 阅读(466) 评论(0) 推荐(0) 编辑
摘要: 一、GitLab简介 GitLab 是一个用于仓库管理系统的开源项目。使用Git作为代码管理工具,并在此基础上搭建起来的web服务。可通过Web界面进行访问公开的或者私人项目。它拥有与Github类似的功能,能够浏览源代码,管理缺陷和注释。可以管理团队对仓库的访问,它非常易于浏览提交过的版本并提供一 阅读全文
posted @ 2018-11-25 08:21 元贞 阅读(1284) 评论(0) 推荐(0) 编辑
摘要: 常见版本管理工具 GIT的四种状态 分支概念 Git的分支,从本质上来讲仅仅是指向提交对象的可变指针。在这一点上与SvN是有着本质的区别。SVN的分支实际上就是一个目录。 Git的默认分支名字是master。在多次提交操作之后,你其实已经有一个指向最后那个提交对象的master分支。它会在每次的提交 阅读全文
posted @ 2018-11-24 23:53 元贞 阅读(382) 评论(0) 推荐(0) 编辑
摘要: 环境准备 1.准备2台安装好CENTOS7.4系统的虚拟机,内存1G+。 2.所有虚拟机的防火墙和SELINUX关闭 3.主机名及IP地址关系如下: Jenkins 192.168.205.191 不需要安装软件 Gitlab 10.0.0.190 安装好gitlab Jenkins --> 安装 阅读全文
posted @ 2018-11-24 22:43 元贞 阅读(296) 评论(0) 推荐(0) 编辑
摘要: 1、获取安装文件: 从百度网盘下载:1、jenkins-2.99-1.1.noarch.rpm,2、jdk-8u121-linux-x64.rpm两个文件 或者从清华镜像下载 2、安装jdk [root@node1 ~]# rpm -ivh jdk-8u121-linux-x64.rpm 3、安装j 阅读全文
posted @ 2018-11-24 22:03 元贞 阅读(221) 评论(0) 推荐(0) 编辑
摘要: 网络基础 网络分层模型 公有IP和私有IP Public IP:互联网上的唯一标识,可以访问internet Private IP:不可在互联网上使用,仅供机构内部使用 A类10.0.0.0--10.255.255.255(10.0.0.0/8) B类172.16.0.0--172.31.255.2 阅读全文
posted @ 2018-11-24 17:13 元贞 阅读(347) 评论(0) 推荐(0) 编辑
摘要: 持续集成 持续集成 持续集成(Continuous integration,简称CI),简单的说持续集成就是频紧地(一天多次)将代码集成到主干,它的好处主要有两个: 1、快速发现错误。每完成一次更新,就集成到主干,可以快速发现错误,定位错误也比较容易。 2、防止分支大幅偏离主干。如果不是经常集成,主 阅读全文
posted @ 2018-11-23 00:11 元贞 阅读(2645) 评论(0) 推荐(0) 编辑
摘要: 分布式爬虫一.redis简单回顾 1.启动redis: mac/linux: redis-server redis.conf windows: redis-server.exe redis-windows.conf 2.对redis配置文件进行配置: - 注释该行:bind 127.0.0.1,表示可以让其他ip访问redis - 将yes该为no:protecte... 阅读全文
posted @ 2018-11-20 23:41 元贞 阅读(172) 评论(0) 推荐(0) 编辑
摘要: CrawlSpider提问:如果想要通过爬虫程序去爬取”糗百“全站数据新闻数据的话,有几种实现方法?方法一:基于Scrapy框架中的Spider的递归爬取进行实现(Request模块递归回调parse方法)。方法二:基于CrawlSpider的自动爬取进行实现(更加简洁和高效)。CrawlSpider一.简介 CrawlSpider其实是Spider的一个子类,除了继承到Spider的特性和功能... 阅读全文
posted @ 2018-11-20 23:17 元贞 阅读(163) 评论(0) 推荐(0) 编辑
上一页 1 ··· 44 45 46 47 48 49 50 51 52 ··· 58 下一页