DevOps 中小团队基于 Docker 的 devops 实践

laofo · 2018年09月01日 · 0 次阅读

笔者所在的技术团队负责了数十个项目的开发和维护工作,每个项目都至少有 dev、qa、hidden、product 四个环境,数百台机器,在各个系统之间疲于奔命,解决各种琐碎的问题,如何从这些琐碎的事情中解放出来?devops 成了我们不二的选择。 文章是基于目前的环境和团队规模做的 devops 实践总结,方案简单易懂,容易落地且效果显著。

实现方法

工程师本地开发,开发完成后提交代码到代码仓库,[自动] 触发 jenkins 进行持续集成与部署,部署完成会收到结果邮件。项目运行过程中可通过日志系统查看程序日志,有异常会触发监控系统发送报警。从编码到上线后结果反馈都可以工程师自主完成,形成完整闭环,运维则负责提供完整流程的工具链及协助异常情况的处理,工作量减少了,效率却高了。

自动触发 jenkins 部署通过 svn 和 git 的 hooks 来实现,是否自动触发根据项目内部沟通决定,我们目前没有自动触发,原因是 QA 在测试的过程中不希望被自动触发的部署打断,不过也可以方便的在 jenkins 上手动触发执行

jenkins 从 svn 拉代码 --> 编译 --> JS/CSS 合并压缩 --> 其他初始化操作 --> 生成最终线上运行的代码包,通过 Dockerfile 打包成镜像上传到 docker hub,然后触发 kubernetes 滚动更新

镜像包含了基础镜像 + 项目代码,基础镜像就是根据项目运营环境打包的一个最小化的运行环境(不包含项目代码),根据项目依赖的技术栈不同我们打包了很多不通类型的基础镜像,例如包含 nginx 服务的基础镜像,包含 jdk+tomcat 的基础镜像

如果发现程序上线出错或有 bug 短时间内无法解决,可通过 jenkins 快速回滚到上一镜像版本,十分方便

如果发现流量突然增高,可以通过 kubernetes 快速调整容器副本数量

软件和工具

  • 代码管理:svn,git
  • 持续集成:jenkins,shell,python
  • Docker 化:docker,harbor,kubernetes
  • 监控报警:zabbix,prometheus
  • 日志系统:filebeat,kafka,logstash,elasticsearch,kibana

代码管理

大部分项目还是通过 svn 来管理的,这里以 svn 为例说明,每个项目有 3 条代码线,dev、trunk、releases

  • dev: 本地开发,开发好一个功能或 task 就可以提交到 dev 分支,同时可部署到 dev 环境进行自测
  • trunk:当一个大的功能开发完成计划上线前合并代码到 trunk 分支,QA 部署到 trunk 环境进行详细测试
  • releases:QA 测试通过,项目即将上线,则将代码合并到 releases 分支,部署 hidden 环境(仿真环境,所有配置、代码等与线上保持一致)再次回归,回归通过,则上线 product- 正式环境 有些项目是基于版本发布的,那么在代码合并到 releases 之后会通过 branch/tag 打个 tag 部署到 hidden 测试

持续集成

这一步主要工作是按照需求把源代码打包为最终线上跑的项目工程,大部分工作都有 shell、python 编写的脚本来完成,例如去 svn 拉代码、编译源代码、对静态资源文件合并压缩等等操作。利用 jenkins 将我们这么多分散的步骤串成一个完整的流程,运维对这一部分应该很熟悉了,不过多介绍

Docker 化

  • Docker 是我们整个方案中很重要的一块,可以方便的进行部署,所有环境使用同一 Docker 镜像也保证了环境的统一,大大减少了开发环境运行正常,线上运行报错的情况出现,同时可根据项目负载情况实时调整资源占用,节约成本。
  • Dockerfile:通过编写 dockerfile 来打包镜像
  • harbor:充当 docker hub 镜像仓库的作用,有 web 界面和 api 接口,方便集成
  • kubernetes:kubernetes(k8s) 将一个一个的 Docker 实例给整合成了集群,方便镜像下发、升级、回滚、增加或删除副本数量,同时也提供了 ingress 外网访问方式,这一块比较重,不过我们也没有用到太高级的功能,只是上边提到的一些基础功能,无需对 k8s 进行二次开发或定制,只是部署好了使用,对运维来说技术难度不大。

监控报警

监控报警在整个运维过程中非常重要,能未雨绸缪,减少故障的发生,加快故障的解决。这一块也是运维的基础不过多介绍了

  • zabbix:宿主机统一通过 zabbix 进行监控报警
  • prometheus:Docker 容器的运行情况通过 prometheus 进行监控报警 (目前还未完成)

日志系统

elk 日志系统真是运维的福音,用了都说好,从此再也不用听开发给你说 “xx,帮我拉下线上的日志”。我们使用的架构为 filebeat/rsyslog --> kafka --> logstash --> elasticsearch --> kibana

  • filebeat/rsyslog:client 端通过 filebeat 或者 rsyslog 来收集日志,filebeat 是一个 go 开发的程序,部署起来非常方便,跟 Docker 简直绝配,我们 Docker 基础镜像里都默认起了一个 filebeat 服务初始化了配置文件,后边整合项目代码的时候不需要额外配置;使用 rsyslog 的好处是大部分系统自带了 rsyslog 服务,不需要额外安装一个程序来收集日志,但是 rsyslog 要传数据到 kafka 需要用到 omkafka 模块,omkafka 对 rsyslog 版本有要求,大部分系统需要升级 rsyslog 版本很麻烦,就放弃了
  • kafka:kafka 就是为处理日志类数据而生,我们采用 3 台机器做 kafka 集群,同时 1 个 topic 对应多个 group,避免单点
  • logstash:作为为从 kafka 取数据,过滤之后写入 elasticsearch。还在想为啥介绍 kafka 的时候说明 1 个 topic 对应多个 group?主要是为了一个 group 对应一个 logstash index,解决掉 logstash 这里的单点
  • elasticsearch:存储过滤之后的数据,同样采用了 3 个节点的集群,避免单点
  • kibana:可视化工具,方便的来搜索想要的数据,同事也做各种报表,一目了然

总结

  • 支持:要获得各方的支持,项目已经成功了一半,没有啥事一顿烧烤解决不了的,如果有就两顿
  • 规范:众多的项目,庞大的系统,必须要有规范,规范是自动化的基础
  • 文档:实施的详细过程、如何使用、怎么维护要保留有详细文档
  • 培训:对于 jenkins、elk 非运维使用的工具要对使用者有相应的培训分享,当然运维内部也要分享项目的种种细节
暂无回复。
需要 登录 后方可回复。