Docker镜像和镜像构建

前言

本次分享主要是从个人实践的角度,讲述本人对于Docker镜像的一些玩法和体会。本文中大部分的内容都还处于实验的阶段,未经过大规模生产的实践。特此说明。思虑不全或者偏颇之处,还请大家指正。

镜像应该算是Docker的核心价值之一。镜像由多层组成。那么对于一个层来说,就有了两个角度来看待。一个角度是把这层当做一个独立的单位来看,那么这一个层其实主要是包含了文件和配置两个部分。另一个角度则是把这一层和它的所有父层结合起来看,那么这个整体则是代表了一个完整的镜像。

本文所述的Docker镜像,主要是指的从Dockerfile构建出来的镜像。

现在已经有了Docker Hub等多家公有容器服务供应商,为我们提供了非常便捷的镜像构建服务。我们不再需要在本地运行docker build而是可以借用他们的服务实现方便的镜像构建。下文中以Docker Hub为例,介绍一些非常规的用法。各位在实践中可以使用国内的多家容器服务提供商,如DaoCloud等。

Docker Hub之在线编译

众所周知,Docker镜像可以用来描述一个APP的runtime。比如我们构建一个Tomcat的镜像,镜像里包含了运行Tomcat的环境以及依赖。但是我们再细看,其实Docker镜像不仅仅是一个runtime,而是提供了一个环境,一个软件栈。从这个角度上来说,镜像不仅仅可以用来提供APP进行运行,还可以提供诸如编译的环境。

用Docker来进行编译,这个应该来说不是什么新奇玩法。因为Docker源码的编译就是通过这种方式来获得的。Docker有对应的Dockerfile。可以利用这个来完成代码的编译。

这里我举个例子。这里有一个写的Dockerfile。test.c是一个输出hello world的c语言源文件。

FROM centos:centos6
RUN yum install -y gcc
ADD test.c /
RUN gcc /test.c

构建这个镜像,由于最后一步是编译命令gcc/test.c,所以编译过程会在Docker Hub上进行执行。

我们可以通过编写Dockerfile,使得整个编译过程都托管在Docker Hub上。如果我们提交了新的代码,需要重新编译,那么只需要重新构建镜像即可。

镜像下载

在v1版本中,Docker Client是串行下载镜像的各层。对于docker pull的过程进行分析,可以看到Docker Client总共有这样几个步骤:

  • /v1/repositories/{repository}/tags/{tag} 获取tag的id

  • /v1/images/{tag_id}/ancestry 获取tag的各层的id

  • /v1/images/{layer_id}/json 依次获取各层对应的配置文件json

  • /v1/images/{layer_id}/layer 依次获取各层对应的镜像数据layer

Docker Hub的镜像数据,并不是在自己的服务器中存储,而是使用的亚马逊的s3服务。因此在调用/v1/images/{layer_id}/layer接口,拉取镜像的layer数据时,会返回302,将请求重定向到亚马逊的s3服务上进行下载。

为了方便下载,我自己写了个小程序,使用HTTP协议即可完全模拟Docker Client的整个过程。自己写的好处在于你可以依次获取tag的ID,各层的ID,以及所有层的配置,进而一次性将所有层对应的镜像数据存储在亚马逊的s3地址获取到,然后可以进行并行下载。如果单层下载失败,只需要重新下载这一层即可。当所有的层在本地下载完毕后。然后打成tar包,再使用Docker Client进行load即可。

对于上文中所说的在线编译,那么我们其实只关心编译出来的相关文件。如刚刚的举例,我们其实只需要获取镜像的最后一层就可以了。那么使用自己写的工具,可以仅仅把最后一层下载下来。下载下来的tar包进行解包,就可以直接获取出编译结果,即编译过程生成的相关文件了。Docker Hub就成为了我们的一个强大的在线编译器。

注:这里说的镜像下载过程是针对的Registry v1版本。Docker Hub在不久之后即将全面结束v1的服务。目前国内的几家容器服务提供商还可以支持v1。该方法同样有效。v2的协议和代码我还没学习,后面研究之后再同大家分享。

镜像层合并

镜像层合并这个话题一直是一个有争议的话题。过长的Dockefile会导致一个冗长的镜像层数。而因为镜像层数过多(比如十几层,几十层),可能会带来的性能和稳定性上的担忧也不无道理,但是似乎Docker社区一直不认为这是一个重要的问题。所以基本上对于镜像层合并的PR最后都被拒了。但是这不影响我们在这里讨论他的实现。

我为Dockerfile增加了两个指令。TAG和COMPRESS。

TAG功能类似于docker build -t的参数。不过build -t只能给Dockerfile中的最后一层镜像打上tag。新增加的TAG指令可以在build生成的中间层也用标签记录下来。比如:

FROM centos:centos6
RUN yum install -y sshd
TAG sshd:latest
ADD test /
CMD /bin/bash

 

这个TAG功能相当于使用下面的Dockerfile生成了这样的一个镜像,并打上了sshd:latest的标签。

FROM centos:centos6
RUN yum install -y sshd

 

COMPRESS功能实现了一个镜像多层合并的功能。比如下面这个Dockerfile:

FROM centos:centos6
RUN yum install -y sshd
ADD test /
CMD /bin/bash
COMPRESS centos:centos6

 

我们知道这里假设RUN yum install -y sshd,ADD test /, CMD /bin/bash生成的镜像层为a、b、c。那么COMPRESS的功能目标就是将新增的a、b、c的文件和配置合并为一个新的层d,并设置层d的父亲为镜像centos:centos6。层d的配置文件可以直接使用层c的配置文件。合并的难点在于如何计算层d的文件。

这里有两种做法,一种是把层a、b、c中的文件按照合并的规则合并起来。合并的规则包括子层和父层共有的文件则使用子层的,没有交叉的文件则全部做为新添加的。这种方法效率较低,在需要合并的层数过多的时候,会极为耗时。

另外一种思路则较为简单,不需要考虑中间总共有多少层。直接比较centos:centos6镜像和c镜像(c镜像是指由c和其所有父层组成的镜像),将两者的所有文件做比较,两者的diff结果即为新层d。

最终,我采用了后者作为COMPRESS的实现。镜像的合并缩减了层数,但是弊端在于将生成镜像的Dockerfile信息也消除了(使用Dockerfile生成的镜像,可以通过docker history进行回溯)。

dind

dind(Docker in Docker),顾名思义就是在容器里面启动一个Docker Daemon。然后使用后者再启动容器。dind是一种比较高级的玩法,从另一个角度来说也是一种有一定风险的玩法。dind巧妙的利用了Docker的嵌套的能力,但是令人颇为担心的是底层graph driver在嵌套后的性能和稳定性。所以dind我并不推荐作为容器的运行环境来使用(RancherOS其实是使用了这种方式的),但是使用其作为构建镜像的环境,可以进行实践。毕竟构建失败的后果没有运行时崩溃的后果那么严重。

之所以会用到dind,是因为如果用于镜像构建,那么直接使用多个物理机,未免比较浪费。因为构建并不是随时都会发生的。而使用dind的方式,只需在需要的时候申请多个容器,然后再在其上进行构建操作。在不需要时候就可以及时释放容器资源,更加灵活。

制作dind的镜像需要一个CentOS的镜像(其他暂未实践过,fedora/ubuntu也都可以做),和一个wrapdocker的文件。wrapdocker的主要作用是容器启动后为Docker Daemon运行时准备所需的环境。

因为容器启动后,Docker还需要一些环境才能启动daemon。比如在CentOS下,需要wrapdocker把cgroup等准备好。使用CentOS的镜像创建一个容器后,安装Docker等Docker需要的组件后,然后把wrapdocker ADD进去。并把wrapdocker添加为ENTRYPOINT或者CMD。然后将容器commit成为镜像,就获得了一个dind的镜像。使用dind的镜像时需要使用privileged赋予权限,就可以使用了。

熟悉Docker源码的同学应该知道,dind其实并不陌生。在Docker项目里,就有这样一个dind的文件。这个dind文件其实就是一个wrapdocker文件。在Docker进行集成测试时,需要使用该文件,协助准备环境以便在容器内部启动一个Daemon来完成集成测试。

如果对于dind有兴趣,可以参考jpetazzo中的Dockerfile和wrapdocker,构建自己的dind镜像。

dind中Docker的使用跟普通Docker一样。不再赘述。

关于镜像的思考

Docker镜像由若干层组成。而其中的每一层是由文件和配置组成的。如果把层与层之间的父子关系,看做一种时间上的先后关系,那么Docker镜像其实与Git十分的相像。那么从理论上来说,Git的若干功能,比如merge、reset、rebase功能其实我们都可以在Docker的构建过程中予以实现。比如上文中的COMPRESS功能,就类似于Git的merge。理论上,Docker镜像其实也可以拥有Git般强大的功能。从这点上来说,Docker镜像的灵活性就远高于KVM之类的镜像。

在这里,不得不抱怨几句。Docker的维护者们对于dockerfile或者说Docker的构建过程并没有给予非常积极的态度,予以改善。当然这也可能是由于他们的更多的关注点集中在了runC、libnetwork、Orchestration上。所以没有更多的人力来完善Docker构建的工具,而是寄希望于社区能自己增加其他的tool来丰富Docker的构建过程。

所以很多时候,docker build的功能并不尽如人意。比如一直呼声很高的Docker镜像压缩功能,几经讨论,终于无果而终。又比如在build过程中,使用–net参数来使得可以控制build过程中容器使用的网络。该讨论从今年的一月份开始讨论,至今仍未定论结贴。大家可以去强势围观。地址在这里(https://github.com/docker/docker/issues/10324)。

这里特别说一下,在CentOS 6下,dind不能使用网桥(centos7可以支持),所以在CentOS 6下使用dind,进行docker build,需要指定网络–net=host的方式。

所以很多功能并不能等待Docker自己去完善,只好自己动手开发。其实熟悉了Docker源码后,关于docker build这方面的开发难度并不是很大。可以自己去实现。读一下孙宏亮同学的《Docker源码分析》,会很快上手。

posted @ 2015-12-11 10:27  kangye1014  阅读(976)  评论(0编辑  收藏  举报