本篇文章并不是介绍K8S 或者Docker的,而仅仅是使用过程中一些常见问题的汇总。
- 重启策略:http://kubernetes.io/docs/user-guide/pod-states/, 对于一个服务,默认的设置是RestartAlways,而其他的比如Job,重启策略则是Never or OnFailure,
- 如果docker重启,kubelet也要重启,否则pod的状态会变成Completed
- 如果报错是报image找不到,可能是因为与docker registry的认证关系没有建立,可以通过docker login 来解决
- 需要pause,可以docker tag修改源。
- 需要升级内核至少3.10版本,只能使用root
- 使用Nginx,尤其是对外网服务的时候可能会很管用。
- 使用kubectl scale 进行服务副本数的管理,同时也可以设置自动化扩容缩容机制
- rolling-update 进行在线升级
- 集群的HA需要关注,毕竟master挂了是个很麻烦的事情,组起码保证不了服务的可靠性
- 如果指定机房:可以使用label机制。每个逻辑机房部署一整套环境OR所有逻辑机房使用一整套环境
- Docker的升级实际上会kill机器上所有的服务实例,因此kubernetes的解决:让该节点处于维护状态
cordon Mark node as unschedulable
drain Drain node in preparation for maintenance
uncordon Mark node as schedulable
kubelet 打印了很多错误日志(ERROR),需要研究一下错误日志的含义。有必要对于FATAL日志进行监控进行报警,避免出现错误而不知道。
- 容错性测试,迁移一个pod到某个节点上,如果超时未部署好,会自动迁移到其他机器上
- 权限管理算是比较完善,但是需要额外的配置
- kubectl label no hostname role=master ,可以设置多个label,并且相同的key可以有不同的
- http://kubernetes.io/docs/api-reference/v1/definitions/, 看各种格式, kc scale rc sofacloud2-controller --replicas=20
- docker要注意WORKDIR,否则会导致运行时错误
- kubernetes dashboard 要部署到master节点,保证该节点不会被使用上。
- 自动的rebalance, 比如几个节点突然下线后,pod迁移到其他的节点,那么在节点上线后,会不会将pod迁移到其他的可用的节点上去。
- 配置dns的过程中,由于healthz没有建立,但是有liveness的监控,导致一个contianer直接killed。
- 如果服务需要访问其他节点非K8S管理的服务,最简单的方法是设置hotNetwork: true, 当然更好的方式是设置dns
- 搭建了kube-dashboard后,可以在web端创建和管理服务。