- Docker 简介
- 什么是 Docker
- 为什么要用 Docker
- 基本概念
- 镜像
- 容器
- 仓库
- 安装 Docker
- Ubuntu
- Debian
- Fedora
- CentOS
- Raspberry Pi
- macOS 安装 Docker Desktop CE
- Windows 10
- 镜像加速器
- 使用镜像
- 获取镜像
- 列出镜像
- 删除本地镜像
- 利用 commit 理解镜像构成
- 使用 Dockerfile 定制镜像
- Dockerfile 指令详解
- COPY 复制文件
- ADD 更高级的复制文件
- CMD 容器启动命令
- ENTRYPOINT 入口点
- ENV 设置环境变量
- ARG 构建参数
- VOLUME 定义匿名卷
- EXPOSE 暴露端口
- WORKDIR 指定工作目录
- USER 指定当前用户
- HEALTHCHECK 健康检查
- ONBUILD 为他人作嫁衣裳
- 参考文档
- Dockerfile 多阶段构建
- 实战多阶段构建 Laravel 镜像
- 构建多种系统架构支持的 Docker 镜像
- 使用 buildx 构建多种系统架构支持的 Docker 镜像
- Docker v18.09 版本使用 BuildKit 构建镜像
- Docker v19.03 版本使用 BuildKit 构建镜像
- 其它制作镜像的方式
- 实现原理
- 操作容器
- 启动
- 守护态运行
- 终止
- 进入容器
- 导出和导入
- 删除
- 访问仓库
- Docker Hub
- 私有仓库
- 私有仓库高级配置
- Nexus 3
- 数据管理
- 数据卷
- 挂载主机目录
- 使用网络
- 外部访问容器
- 容器互联
- 配置 DNS
- 高级网络配置
- 快速配置指南
- 容器访问控制
- 端口映射实现
- 配置 docker0 网桥
- 自定义网桥
- 工具和示例
- 编辑网络配置文件
- 实例:创建一个点到点连接
- Docker Compose
- 简介
- 安装与卸载
- 使用
- 命令说明
- Compose 模板文件
- 实战 Django
- 实战 Rails
- 实战 WordPress
- Swarm mode
- 基本概念
- 创建 Swarm 集群
- 部署服务
- 使用 compose 文件
- 管理密钥
- 管理配置信息
- 滚动升级
- 安全
- 内核命名空间
- 控制组
- 服务端防护
- 内核能力机制
- 其它安全特性
- 总结
- 底层实现
- 基本架构
- 命名空间
- 控制组
- 联合文件系统
- 容器格式
- 网络
- Etcd 项目
- 简介
- 安装
- 集群
- 使用 etcdctl
- CoreOS 项目
- 简介
- 工具
- Kubernetes 项目
- 简介
- 快速上手
- 基本概念
- kubectl 使用
- 架构设计
- 容器与云计算
- 简介
- 亚马逊云
- 腾讯云
- 阿里云
- 小结
- 实战案例-操作系统
- Busybox
- Alpine
- Debian Ubuntu
- CentOS Fedora
- 本章小结
- 实战案例-CI/CD
- GitHub Actions
- Drone
- 部署 Drone
- Travis CI
- Docker 开源项目
- LinuxKit
- 附录
- 附录一:常见问题总结
- 附录二:热门镜像介绍
- Ubuntu
- CentOS
- Nginx
- PHP
- Node.js
- MySQL
- WordPress
- MongoDB
- Redis
- 附录三:Docker 命令查询
- 附录四:Dockerfile 最佳实践
- 附录五:如何调试 Docker
- 附录六:资源链接
- 归档
- Mesos - 优秀的集群资源调度平台
- Mesos 简介
- 安装与使用
- 原理与架构
- Mesos 配置项解析
- 日志与监控
- 常见应用框架
- 本章小结
- Docker Machine
- 安装
- 使用
- Docker Swarm
安装与使用
Mesos 安装与使用
以 Mesos 结合 Marathon 应用框架为例,来看下如何快速搭建一套 Mesos 平台。
Marathon 是可以跟 Mesos 一起协作的一个 framework,基于 Scala 实现,可以实现保持应用的持续运行。
另外,Mesos 默认利用 ZooKeeper 来进行多个主节点之间的选举,以及从节点发现主节点的过程。一般在生产环境中,需要启动多个 Mesos master 服务(推荐 3 或 5 个),并且推荐使用 supervisord 等进程管理器来自动保持服务的运行。
ZooKeeper 是一个分布式集群中信息同步的工具,通过自动在多个节点中选举 leader
,保障多个节点之间的某些信息保持一致性。
安装
安装主要需要 mesos、zookeeper 和 marathon 三个软件包。
Mesos 也采用了经典的主-从结构,一般包括若干主节点和大量从节点。其中,mesos master 服务和 zookeeper 需要部署到所有的主节点,mesos slave 服务需要部署到所有从节点。marathon 可以部署到主节点。
安装可以通过源码编译、软件源或者 Docker 镜像方式进行,下面分别进行介绍。
源码编译
源码编译方式可以保障获取到最新版本,但编译过程比较费时间。
首先,从 apache.org 开源网站下载最新的源码。
$ git clone https://git-wip-us.apache.org/repos/asf/mesos.git
其中,主要代码在 src
目录下,应用框架代码在 frameworks
目录下,文档在 docs
目录下,include
中包括了跟 Mesos 打交道使用的一些 API 定义头文件。
安装依赖,主要包括 Java 运行环境、Linux 上的自动编译环境等。
$ sudo apt-get update$ sudo apt-get install -y openjdk-8-jdk autoconf libtool \build-essential python-dev python-boto libcurl4-nss-dev \libsasl2-dev maven libapr1-dev libsvn-dev
后面就是常规 C++ 项目的方法,configure 之后利用 Makefile 进行编译和安装。
$ cd mesos$ ./bootstrap$ mkdir build$ cd build && ../configure --with-network-isolator$ make$ make check && sudo make install
软件源安装
通过软件源方式进行安装相对会省时间,但往往不是最新版本。
这里以 Ubuntu 系统为例,首先添加软件源地址。
$ sudo apt-key adv --keyserver keyserver.ubuntu.com --recv E56151BF$ DISTRO=$(lsb_release -is | tr '[:upper:]' '[:lower:]')$ CODENAME=$(lsb_release -cs)$ echo "deb http://repos.mesosphere.io/${DISTRO} ${CODENAME} main" | \sudo tee /etc/apt/sources.list.d/mesosphere.list
刷新本地软件仓库信息并安装 zookeeper、mesos、marathon 三个软件包。
$ sudo apt-get -y update && sudo apt-get -y install zookeeper mesos marathon
注意,Marathon 最新版本需要 jdk 1.8+ 的支持。如果系统中有多个 Java 版本,需要检查配置默认的 JDK 版本符合要求。
$ sudo update-alternatives --config java
安装 Mesos 成功后,会在 /usr/sbin/
下面发现 mesos-master
和 mesos-slave
两个二进制文件,分别对应主节点上需要运行的管理服务和从节点上需要运行的任务服务。
用户可以手动运行二进制文件启动服务,也可以通过 service
命令来方便进行管理。
例如,在主节点上重启 Mesos 管理服务:
$ sudo service mesos-master restart
通过 service
命令来管理,实际上是通过调用 /usr/bin/mesos-init-wrapper
脚本文件进行处理。
基于 Docker
需要如下三个镜像。
- ZooKeeper:https://registry.hub.docker.com/u/garland/zookeeper/
- Mesos:https://registry.hub.docker.com/u/garland/mesosphere-docker-mesos-master/
- Marathon:https://registry.hub.docker.com/u/garland/mesosphere-docker-marathon/
其中 mesos-master 镜像在后面将分别作为 master 和 slave 角色进行使用。
首先,拉取三个镜像。
$ docker pull garland/zookeeper$ docker pull garland/mesosphere-docker-mesos-master$ docker pull garland/mesosphere-docker-marathon
导出主节点机器的地址到环境变量。
$ HOST_IP=10.0.0.2
在主节点上启动 Zookeepr 容器。
docker run -d \-p 2181:2181 \-p 2888:2888 \-p 3888:3888 \garland/zookeeper
在主节点上启动 Mesos Master 服务容器。
docker run --net="host" \-p 5050:5050 \-e "MESOS_HOSTNAME=${HOST_IP}" \-e "MESOS_IP=${HOST_IP}" \-e "MESOS_ZK=zk://${HOST_IP}:2181/mesos" \-e "MESOS_PORT=5050" \-e "MESOS_LOG_DIR=/var/log/mesos" \-e "MESOS_QUORUM=1" \-e "MESOS_REGISTRY=in_memory" \-e "MESOS_WORK_DIR=/var/lib/mesos" \-d \garland/mesosphere-docker-mesos-master
在主节点上启动 Marathon。
docker run \-d \-p 8080:8080 \garland/mesosphere-docker-marathon --master zk://${HOST_IP}:2181/mesos --zk zk://${HOST_IP}:2181/marathon
在从节点上启动 Mesos slave 容器。
docker run -d \--name mesos_slave_1 \--entrypoint="mesos-slave" \-e "MESOS_MASTER=zk://${HOST_IP}:2181/mesos" \-e "MESOS_LOG_DIR=/var/log/mesos" \-e "MESOS_LOGGING_LEVEL=INFO" \garland/mesosphere-docker-mesos-master:latest
接下来,可以通过访问本地 8080 端口来使用 Marathon 启动任务了。
配置说明
下面以本地通过软件源方式安装为例,解释如何修改各个配置文件。
ZooKeepr
ZooKeepr 是一个分布式应用的协调工具,用来管理多个主节点的选举和冗余,监听在 2181 端口。推荐至少布置三个主节点来被 ZooKeeper 维护。
配置文件默认都在 /etc/zookeeper/conf/
目录下。比较关键的配置文件有两个:myid
和 zoo.cfg
。
myid 文件会记录加入 ZooKeeper 集群的节点的序号(1-255之间)。/var/lib/zookeeper/myid
文件其实也是软连接到了该文件。
比如配置某节点序号为 1,则需要在该节点上执行:
$ echo 1 | sudo dd of=/etc/zookeeper/conf/myid
节点序号在 ZooKeeper 集群中必须唯一,不能出现多个拥有相同序号的节点。
另外,需要修改 zoo.cfg 文件,该文件是主配置文件,主要需要添加上加入 ZooKeeper 集群的机器的序号和对应监听地址。
例如,现在 ZooKeeper 集群中有三个节点,地址分别为 10.0.0.2
、10.0.0.3
、10.0.0.4
,序号分别配置为 2
、3
、4
。
则配置如下的三行:
server.2=10.0.0.2:2888:3888server.3=10.0.0.3:2888:3888server.4=10.0.0.4:2888:3888
其中第一个端口 2888 负责从节点连接到主节点的;第二个端口 3888 则负责主节点进行选举时候通信。
也可以用主机名形式,则需要各个节点 /etc/hosts
文件中都记录地址到主机名对应的映射关系。
完成配置后,启动 ZooKeeper 服务。
$ sudo service zookeeper start
Mesos
Mesos 的默认配置目录有三个:
- /etc/mesos/:主节点和从节点都会读取的配置文件,最关键的是 zk 文件存放主节点的信息;
- /etc/mesos-master/:只有主节点会读取的配置,等价于启动 mesos-master 命令时候的默认选项;
- /etc/mesos-slave/:只有从节点会读取的配置,等价于启动 mesos-master 命令时候的默认选项。
最关键的是需要在所有节点上修改 /etc/mesos/zk
,写入主节点集群的 ZooKeeper 地址列表,例如:
zk://10.0.0.2:2181,10.0.0.3:2181,10.0.0.4:2181/mesos
此外,/etc/default/mesos
、/etc/default/mesos-master
、/etc/default/mesos-slave
这三个文件中可以存放一些环境变量定义,Mesos 服务启动之前,会将这些环境变量导入进来作为启动参数。格式为 MESOS_OPTION_NAME
。
下面分别说明在主节点和从节点上的配置。
主节点
一般只需要关注 /etc/mesos-master/
目录下的文件。默认情况下目录下为空。
该目录下文件命名和内容需要跟 mesos-master 支持的命令行选项一一对应。可以通过 mesos-master --help
命令查看支持的选项。
例如某个文件 key
中内容为 value
,则在 mesos-master 服务启动的时候,会自动添加参数 --key=value
给二进制命令。
例如,mesos-master 服务默认监听在 loopback 端口,即 127.0.0.1:5050
,我们需要修改主节点监听的地址,则可以创建 /etc/mesos-master/ip 文件,在其中写入主节点监听的外部地址。
为了正常启动 mesos-master 服务,还需要指定 work_dir
参数(表示应用框架的工作目录)的值,可以通过创建 /etc/mesos-master/work_dir 文件,在其中写入目录,例如 /var/lib/mesos
。工作目录下会生成一个 replicated_log
目录,会存有各种同步状态的持久化信息。
以及指定 quorum 参数的值,该参数用来表示 ZooKeeper 集群中要求最少参加表决的节点数目。一般设置为比 ZooKeeper 集群中节点个数的半数多一些(比如三个节点的话,可以配置为 2
)。
此外,要修改 Mesos 集群的名称,可以创建 /etc/mesos-master/cluster
文件,在其中写入集群的别名,例如 MesosCluster
。
总结下,建议在 /etc/mesos-master
目录下,配置至少四个参数文件:ip
、quorum
、work_dir
、cluster
。
修改配置之后,需要启动服务即可生效。
$ sudo service mesos-master start
更多选项可以参考后面的配置项解析章节。
主节点服务启动后,则可以在从节点上启动 mesos-slave 服务来加入主节点的管理。
从节点
一般只需要关注 /etc/mesos-slave/
目录下的文件。默认情况下目录下为空。
文件命名和内容也是跟主节点类似,对应二进制文件支持的命令行参数。
建议在从节点上,创建 /etc/mesos-slave/ip
文件,在其中写入跟主节点通信的地址。
修改配置之后,也需要重新启动服务。
$ sudo service mesos-slave start
更多选项可以参考后面的配置项解析章节。
Marathon
Marathon 作为 Mesos 的一个应用框架,配置要更为简单,必需的配置项有 --master
和 --zk
。
安装完成后,会在 /usr/bin 下多一个 marathon shell 脚本,为启动 marathon 时候执行的命令。
配置目录为 /etc/marathon/conf
(需要手动创建),此外默认配置文件在 /etc/default/marathon
。
我们手动创建配置目录,并添加配置项(文件命名和内容跟 Mesos 风格一致),让 Marathon 能连接到已创建的 Mesos 集群中。
$ sudo mkdir -p /etc/marathon/conf$ sudo cp /etc/mesos/zk /etc/marathon/conf/master
同时,让 Marathon 也将自身的状态信息保存到 ZooKeeper 中。创建 /etc/marathon/conf/zk
文件,添加 ZooKeeper 地址和路径。
zk://10.0.0.2:2181,10.0.0.2:2181,10.0.0.2:2181/marathon
启动 marathon 服务。
$ sudo service marathon start
访问 Mesos 图形界面
Mesos 自带了 Web 图形界面,可以方便用户查看集群状态。
用户在 Mesos 主节点服务和从节点服务都启动后,可以通过浏览器访问主节点 5050 端口,看到类似如下界面,已经有两个 slave 节点加入了。
通过 Slaves 标签页能看到加入集群的从节点的信息。
如果没有启动 Marathon 服务,在 Frameworks 标签页下将看不到任何内容。
访问 Marathon 图形界面
Marathon 服务启动成功后,在 Mesos 的 web 界面的 Frameworks 标签页下面将能看到名称为 marathon 的框架出现。
同时可以通过浏览器访问 8080 端口,看到 Marathon 自己的管理界面。
此时,可以通过界面或者 REST API 来创建一个应用,Marathon 会保持该应用的持续运行。
通过界面方式可以看到各任务支持的参数(包括资源、命令、环境变量、健康检查等),同时可以很容易地修改任务运行实例数进行扩展,非常适合进行测试。
如果要更自动化地使用 Marathon,则需要通过它的 REST API 进行操作。
一般的,启动新任务需要先创建一个定义模板(JSON 格式),然后发到指定的 API。
例如,示例任务 basic-0 的定义模板为:
{ "id": "basic-0", "cmd": "while [ true ] ; do echo 'Hello Marathon' ; sleep 5 ; done", "cpus": 0.1, "mem": 10.0, "instances": 1}
该任务申请资源为 0.1 个单核 CPU 资源和 10 MB 的内存资源,具体命令为每隔五秒钟用 shell 打印一句 Hello Marathon
。
可以通过如下命令发出 basic-0 任务到 Marathon 框架,框架会分配任务到某个满足条件的从节点上,成功会返回一个 json 对象,描述任务的详细信息。
$ curl -X POST http://marathon_host:8080/v2/apps -d @basic-0.json -H "Content-type: application/json"{"id":"/basic-0","cmd":"while [ true ] ; do echo 'Hello Marathon' ; sleep 5 ; done","args":null,"user":null,"env":{},"instances":1,"cpus":0.1,"mem":10,"disk":0,"executor":"","constraints":[],"uris":[],"storeUrls":[],"ports":[0],"requirePorts":false,"backoffSeconds":1,"backoffFactor":1.15,"maxLaunchDelaySeconds":3600,"container":null,"healthChecks":[],"dependencies":[],"upgradeStrategy":{"minimumHealthCapacity":1,"maximumOverCapacity":1},"labels":{},"acceptedResourceRoles":null,"version":"2015-12-28T05:33:05.805Z","tasksStaged":0,"tasksRunning":0,"tasksHealthy":0,"tasksUnhealthy":0,"deployments":[{"id":"3ec3fbd5-11e4-479f-bd17-813d33e43e0c"}],"tasks":[]}%
Marathon 的更多 REST API 可以参考本地自带的文档:http://marathon_host:8080/api-console/index.html
。
此时,如果运行任务的从节点出现故障,任务会自动在其它可用的从节点上启动。
此外,目前也已经支持基于 Docker 容器的任务。需要先在 Mesos slave 节点上为 slave 服务配置 --containerizers=docker,mesos
参数。
例如如下面的示例任务:
{ "id": "basic-3", "cmd": "python3 -m http.server 8080", "cpus": 0.5, "mem": 32.0, "container": { "type": "DOCKER", "volumes": [], "docker": { "image": "python:3", "network": "BRIDGE", "portMappings": [ { "containerPort": 8080, "hostPort": 31000, "servicePort": 0, "protocol": "tcp" } ], "privileged": false, "parameters": [], "forcePullImage": true } }}
该任务启动一个 python:3
容器,执行 python3 -m http.server 8080
命令,作为一个简单的 web 服务,实际端口会映射到宿主机的 31000 端口。
注意区分 hostPort 和 servicePort,前者代表任务映射到的本地可用端口(可用范围由 Mesos slave 汇报,默认为 31000 ~ 32000);后者作为服务管理的端口,可以被用作一些服务发行机制使用进行转发,在整个 Marathon 集群中是唯一的。
任务执行后,也可以在对应 slave 节点上通过 Docker 命令查看容器运行情况,容器将以 mesos-SLAVE_ID
开头。
$ docker container lsCONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES1226b4ec8d7d python:3 "/bin/sh -c 'python3 " 3 days ago Up 3 days 0.0.0.0:10000->8080/tcp mesos-06db0fba-49dc-4d28-ad87-6c2d5a020866-S10.b581149e-2c43-46a2-b652-1a0bc10204b3
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论