k8s 意外集锦 - oom 的连锁反应_技术学院_宜昌市隼壹珍商贸有限公司

您好,欢迎访问宜昌市隼壹珍商贸有限公司

400 890 5375
当前位置: 主页 > 新闻动态 > 技术学院

k8s 意外集锦 - oom 的连锁反应

发布时间:2025-07-10  |  点击率:

最初认为 oom(内存溢出)只是一个常见的问题,不会造成太大影响,因为 kubernetes(k8s)集群会自动调度。但实际上,它引发的连锁反应是相当可怕的。

问题描述:当一台机器发生 OOM 时,对应的 Pod 会被调度到其他节点上,导致这些节点也出现 OOM。然后,节点开始疯狂输出日志信息,导致 Master 节点的磁盘空间不足,进而开始清理和驱逐 Pod。被驱逐的 Pod 再次被调度到其他节点上,引发连锁反应,最终导致大量服务不可用。

Pod 出现告警信息 The node had condition: [DiskPressure].

总的来说,一个应用的 OOM 导致 Pod 不断被调度,日志信息疯狂输出,最终导致磁盘空间不足。

解决方案:

  1. 设置合适的内存请求和限制:限制单个应用的内存使用是非常必要的,避免出现意外情况。
resources:
  requests:
    cpu: 100m
    memory: 128Mi
  limits:
    cpu: 200m
    memory: 256Mi
  1. 修复应用 bug:导致问题的主要原因是代码中的 bug,必须修复。

  2. 升级 ECS 的内存:当前集群中的内存不足以满足应用需求,容易引发问题。

  3. 定时清理 Master 和 Worker 上的系统日志:之前没有清理过 k8s 的日志文件,长期堆积也是导致此次问题的原因之一。因此,需要编写脚本定时清理日志。

  4. 添加磁盘监控:由于没有高存储类型的应用,以前没有考虑到磁盘问题,因此需要添加磁盘监控。

全国统一服务电话

400 890 5375

电子邮箱:879577@qq.com

公司地址:宜昌市西陵区黄河路5号三峡明珠10栋1051室

咨询微信

TEL:13680874598