国产精品电影_久久视频免费_欧美日韩国产激情_成年人视频免费在线播放_日本久久亚洲电影_久久都是精品_66av99_九色精品美女在线_蜜臀a∨国产成人精品_冲田杏梨av在线_欧美精品在线一区二区三区_麻豆mv在线看

深入理解K8s資源限制,你明白了嗎?

開發 前端
資源限制通過每個容器的 containerSpec 中的 resources 字段進行設置,該字段是 v1 版本的 ResourceRequirements 類型的 API 對象。通過設置 limits 和 requests,可以分別定義資源的上限和需求。

深入理解K8s資源限制

資源限制是 Kubernetes 中可配置的重要選項之一,它包含兩方面內容:

工作負載的資源需求:用于定義工作負載運行時所需的最低資源。調度器根據這一信息選擇合適的節點來部署工作負載。

資源的最大限制:用于規定工作負載可以消耗的資源上限。Kubelet 節點守護進程依賴這一配置來管理 Pod 的運行和健康狀態。

換句話說,資源需求確保工作負載能夠正常運行,而資源限制則避免單個工作負載過度消耗節點資源。

資源限制

資源限制通過每個容器的 containerSpec 中的 resources 字段進行設置,該字段是 v1 版本的 ResourceRequirements 類型的 API 對象。通過設置 limits 和 requests,可以分別定義資源的上限和需求。

當前支持的資源類型主要有 CPU 和 內存。通常情況下,deployment、statefulset 和 daemonset 的定義中都會包含 podSpec,而 podSpec 內部會定義一個或多個 containerSpec。

以下是一個完整的 v1 資源對象的 YAML 配置示例:

resources:
    requests:
        cpu: 50m
        memory: 50Mi
  limits:
        cpu: 100m
        memory: 100Mi

可以這樣理解:該容器通常需要 5% 的 CPU 時間 和 50MiB 的內存(由 requests 定義),但在高峰時允許其最多使用 10% 的 CPU 時間 和 100MiB 的內存(由 limits 定義)。

稍后我會更詳細地解釋 requests 和 limits 的區別,但一般來說:

  • requests 在調度階段更為關鍵,因為調度器會根據 requests 判斷節點是否有足夠的資源來運行容器。
  • limits 在運行階段更重要,Kubelet 會使用它來限制容器的資源消耗,確保單個容器不會過度占用節點資源。

雖然資源限制是為每個容器配置的,但 Pod 的整體資源限制可以視為其所有容器資源限制的總和。從系統的角度來看,這種關系非常直觀。

內存限制

CPU資源限制比內存資源限制更復雜,但它們都是通過cgroup控制的,所以我們可以用類似的方法來處理。接下來,我們重點看它們的不同之處。

首先,我們在之前的 YAML 文件中加入 CPU 的資源限制:

resources:
  requests:
    memory: 50Mi
    cpu: 50m
  limits:
    memory: 100Mi
    cpu: 100m

這里的 m 表示千分之一核。例如,50m 代表 0.05 核,100m 代表 0.1 核,而 2000m 就是 2 核。這樣配置后,容器需要至少 5% 的 CPU 資源才能運行,同時最多能使用 10% 的 CPU 資源。

接著,我們創建一個只配置了 CPU requests 的 Pod:

kubectl run limit-test --image=busybox --requests "cpu=50m" --command -- /bin/sh -c "while true; do sleep 2; done"

用以下命令可以驗證 Pod 的資源配置:

kubectl get pods limit-test-5b4c495556-p2xkr -o=jsnotallow='{.spec.containers[0].resources}'

輸出:

map[requests:map[cpu:50m]]

同時,用 Docker 查看容器對應的 CPU 配置:

docker ps | grep busy | cut -d' ' -f1
f2321226620e
docker inspect f2321226620e --format '{{.HostConfig.CpuShares}}'
51

這里顯示 51 而不是 50,是因為 Kubernetes 把 CPU 核心劃分為 1000 個份額(shares),而 Linux 內核用 1024 個時間片表示 CPU 的分配比例。CPU 的 shares 是一個相對值,用來劃分 CPU 使用權:

  • 如果有兩個 cgroup(A 和 B),A 的 shares 是 1024,B 是 512,那么 A 獲得 66% 的 CPU 資源,B 獲得 33%。
  • 如果 CPU 空閑,B 可以使用更多資源。
  • 如果新增一個 cgroup C,A 和 B 的占比會減少。

接下來,再看看設置了 CPU limits 的 Pod 會發生什么:

kubectl run limit-test --image=busybox --requests "cpu=50m" --limits "cpu=100m" --command -- /bin/sh -c "while true; do sleep 2; done"

再次用 kubectl 查看資源限制:

kubectl get pods limit-test-5b4fb64549-qpd4n -o=jsnotallow='{.spec.containers[0].resources}'

輸出:

map[limits:map[cpu:100m] requests:map[cpu:50m]]

而對應的 Docker 配置:

docker inspect f2321226620e --format '{{.HostConfig.CpuShares}} {{.HostConfig.CpuQuota}} {{.HostConfig.CpuPeriod}}'
51 10000 100000

CpuShares 是對應 requests 的 CPU 份額。

CpuQuota

CpuPeriod

是用來實現

limits

的:

  • CpuPeriod 表示一個時間周期(默認為 100 毫秒,即 100,000 微秒)。
  • CpuQuota 表示每周期允許使用的 CPU 時間(100m 對應 10,000 微秒)。

這些值最終映射到 cgroup:

cat /sys/fs/cgroup/cpu,cpuacct/.../cpu.cfs_period_us
100000


cat /sys/fs/cgroup/cpu,cpuacct/.../cpu.cfs_quota_us
10000

例子:

限制 1 核(每 250ms 內用 250ms CPU 時間):

echo 250000 > cpu.cfs_quota_us
echo 250000 > cpu.cfs_period_us

限制 2 核(每 500ms 內用 1000ms CPU 時間):

echo 1000000 > cpu.cfs_quota_us
echo 500000 > cpu.cfs_period_us

限制 1 核的 20%(每 50ms 用 10ms CPU 時間):

echo 10000 > cpu.cfs_quota_us
echo 50000 > cpu.cfs_period_us

簡單總結:

  • requests 保證容器最少能用的 CPU 資源。
  • limits 確保容器最多使用的 CPU 時間不會超過限制。

默認限制

要為命名空間中的 Pod 設置默認的資源限制,可以使用 Kubernetes 提供的 LimitRange 資源。通過配置 LimitRange,可以為每個命名空間設置默認的 requests 和 limits,從而確保 Pod 的資源分配有合理的默認值和邊界限制。以下是如何實現的說明和示例:

創建一個 LimitRange 示例:

以下 YAML 文件定義了一個 LimitRange 資源:

apiVersion: v1
kind: LimitRange
metadata:
  name: default-limit
spec:
  limits:
    - default:
        memory: 100Mi
        cpu: 100m
      defaultRequest:
        memory: 50Mi
        cpu: 50m
    - max:
        memory: 512Mi
        cpu: 500m
    - min:
        memory: 50Mi
        cpu: 50m
      type: Container

字段解析

default:

  • 設置默認的 limits 值。
  • 如果 Pod 未明確指定 limits,則系統自動分配 100Mi 內存和 100m CPU。

defaultRequest:

  • 設置默認的 requests 值。
  • 如果 Pod 未明確指定 requests,則系統自動分配 50Mi 內存和 50m CPU。

max 和 min:

  • max: 定義 limits 的最大值。如果 Pod 資源分配超過這個值,Pod 將被拒絕創建。
  • min: 定義 requests 的最小值。如果 Pod 資源分配低于這個值,Pod 也將被拒絕創建。

type:

  • 指定適用范圍為 Container。

工作機制

Kubernetes 的LimitRanger準入控制器負責應用這些限制:

  • 在創建 Pod 之前,如果 Pod 的 limits 或 requests 未設置,則自動添加 LimitRange 中的默認值。
  • 如果 Pod 的資源配置超出 max 或低于 min,則拒絕創建。

示例 Pod 及 LimitRanger 插件設置的注釋

apiVersion: v1
kind: Pod
metadata:
  annotations:
    kubernetes.io/limit-ranger: 'LimitRanger plugin set: cpu request for container limit-test'
  name: limit-test
  namespace: default
spec:
  containers:
    - name: limit-test
      image: busybox
      args:
        - /bin/sh
        - -c
        - while true; do sleep 2; done
      resources:
        requests:
          cpu: 100m

annotations: 顯示 LimitRanger 插件已經為 Pod 自動添加了默認的資源 requests。

總結

1、使用 LimitRange,可以為命名空間設置默認的 requests 和 limits,避免 Pod 沒有資源限制帶來的風險。

2、max 和 min 設置了資源的上下限,確保 Pod 的資源分配符合命名空間的約束。

3、LimitRanger 插件會在 Pod 創建時檢查并自動設置默認值,使資源限制更加自動化和規范化

責任編輯:武曉燕 來源: 步步運維步步坑
相關推薦

2024-12-05 10:00:54

K8s參數Pod

2022-11-02 10:21:41

K8s pod運維

2022-10-08 08:09:13

MGRGreatSQL事務

2024-05-10 08:00:48

K8soperatorGitHub

2025-05-15 09:50:39

ServiceKubernetes運維

2023-12-08 07:40:07

并發控制

2016-12-08 15:36:59

HashMap數據結構hash函數

2020-07-21 08:26:08

SpringSecurity過濾器

2010-06-01 15:25:27

JavaCLASSPATH

2025-11-10 09:27:26

運維Service集群

2022-05-31 07:32:19

JDK8API工具

2019-09-16 08:32:59

遞歸算法編程

2022-04-22 13:32:01

K8s容器引擎架構

2009-09-25 09:14:35

Hibernate日志

2021-02-17 11:25:33

前端JavaScriptthis

2023-10-19 11:12:15

Netty代碼

2013-09-22 14:57:19

AtWood

2025-06-05 05:51:33

2020-09-23 10:00:26

Redis數據庫命令

2017-08-15 13:05:58

Serverless架構開發運維
點贊
收藏

51CTO技術棧公眾號

国产精品区二区三区日本| 成人嫩草影院免费观看| 中文字幕制服丝袜成人av| 色综合久久中文| 成全视频全集| 国产精品日韩高清| 久久天天躁夜夜躁狠狠躁2022| 一区二区三区日韩精品视频| 久久精品导航| 久草在线成人| 成人精品动漫| 巨大荫蒂视频欧美大片| 欧美成人激情视频| 欧美一级艳片视频免费观看| 久久久噜噜噜久久中文字幕色伊伊 | 好男人www社区| 在线视频欧美一区| 青青草国产精品一区二区| 亚洲丝袜在线视频| 精品精品欲导航| 欧洲激情一区二区| 午夜精品福利在线| 亚洲你懂的在线视频| 国产69精品久久久久毛片| 日韩av一区二区在线影视| 亚洲综合中文| 亚洲精品久久| 久久久久久美女精品 | 国产欧美视频在线| 黄色aa久久| 亚洲国产一二三精品无码| 91久久久久久久久久久久久| 国产精品福利在线观看网址| 欧美激情中文字幕在线| 欧美高清videos高潮hd| 亚洲欧美日韩图片| 亚洲欧美中文另类| 日韩中文字幕在线播放| 久久综合国产精品台湾中文娱乐网| 一区二区三区美女xx视频| 国产一区二区黑人欧美xxxx| 亚洲第一精品久久忘忧草社区| 日韩免费电影网站| 亚洲少妇激情视频| 久久久国产成人精品| 久久视频中文字幕| 欧美黑人一级爽快片淫片高清| 欧美一级片免费在线| 成人午夜在线视频一区| 久久精品aaaaaa毛片| 91国在线高清视频| 不卡视频一区二区三区| 久久99导航| 中文字幕人成一区| 日本亚洲欧美三级| 91精品国产综合久久久久久久久| 国产视频一区二区三区四区| 欧美在线性爱视频| 亚洲一区二区三区视频| 亚洲欧洲日韩精品| 黄色一级视频在线播放| 99久热re在线精彩视频| av在线免费网址| 加勒比色综合久久久久久久久| 亚洲精品久久久| 国产精品2024| 国产视频911| 日韩欧美一区中文| 97成人精品视频在线观看| 国产日韩精品久久| 日韩欧美xxxx| h片精品在线观看| 网友自拍区视频精品| 久久机这里只有精品| 疯狂做受xxxx高潮欧美日本| 亚洲人成自拍网站| 亚洲综合小说区| 99精品一区二区三区的区别| 全部a∨一极品视觉盛宴| 在线免费观看黄色av| 欧美二区观看| 久久久噜噜噜久久狠狠50岁| 中文字幕永久在线不卡| 精品视频在线播放| 91精品国产高清久久久久久91裸体| 蜜臀av色欲a片无码精品一区| 性视频一区二区三区| 精品一区欧美| 国产一区不卡视频| 欧美中文字幕一区| 国产一区二区丝袜| 日韩精品无码一区二区三区免费| 亚洲精品白浆| 精品动漫3d一区二区三区免费| 亚洲欧洲一区二区三区| 久久精品国产96久久久香蕉| 中国人体摄影一区二区三区| 久热av在线| 老司机成人在线| 国产日韩三级在线| 欧美夫妻性生活视频| 成人网站免费观看入口| rebdb初裸写真在线观看| 天堂午夜影视日韩欧美一区二区| 欧美国产视频在线| 欧美成人精品在线观看| 妞干网在线观看视频| 精品久久久久久久久久久| 久久久999精品视频| 免费激情视频在线观看| 9l视频自拍九色9l视频成人| 国产日韩综合av| 奇门遁甲1982国语版免费观看高清| 九色丨porny丨| 手机在线一区二区三区| 欧美视频免费在线| 精品国产一区二区三区四区精华| 一级在线视频| 中文亚洲欧美| 美女视频久久黄| 一个人看的免费视频色| 亚洲黄色av| 亚洲日本成人女熟在线观看| 青青草原av在线播放| 91中文字幕精品永久在线| 欧美猛男gaygay网站| 可以在线看黄的网站| 精品少妇3p| 欧美喷水一区二区| 日韩a∨精品日韩在线观看| 第四色在线一区二区| 色婷婷国产精品久久包臀| 99久久99久久精品| 日产午夜精品一线二线三线| 欧美一区二区免费视频| 噼里啪啦国语在线观看免费版高清版| 成久久久网站| 一本色道久久88综合亚洲精品ⅰ | 成人黄色大片在线免费观看| 日本午夜大片a在线观看| 中文天堂在线一区| 免费看成人片| 成人激情自拍| 日韩精品欧美国产精品忘忧草| 大地资源高清播放在线观看 | 成a人片国产精品| 国产乱码精品一区二区三区日韩精品| 亚洲国产高清在线观看| 欧美人动与zoxxxx乱| 2018高清国产日本一道国产| 国内精品伊人久久久久av影院| 亚洲最大的网站| 成人精品动漫| 亚洲成年人在线| 少妇激情av一区二区三区| 国产激情三区| 精品一区二区三区不卡| 日本免费一区二区三区视频观看| 一区二区三区四区五区视频| 9999国产精品| 欧美老女人在线视频| 一个人看的www视频在线免费观看 一个人www视频在线免费观看 | 精品欧美一区免费观看α√| 亚洲伦伦在线| 国产成人涩涩涩视频在线观看| 成人性生交大片免费观看网站| 色综合久久久久网| 羞羞的视频网站| 成人在线视频一区二区| 91中文在线视频| 成人综合一区| 69av成年福利视频| 欧美高清影院| 亚洲欧美成人一区二区在线电影| www.av在线播放| 亚洲福利电影网| 午夜dv内射一区二区| 国产 欧美在线| 天天做天天爱天天高潮| 一区二区激情| 精品一区二区三区视频日产| 亚洲国产国产亚洲一二三| 国产精品老牛影院在线观看| 国语精品视频| www.欧美精品一二三区| 一区二区亚洲视频| 欧美精品手机在线| 日韩成人在线看| 欧美精品在线免费观看| 日韩中文影院| 久久在线免费观看视频| 成人另类视频| 国产精品日韩在线播放| 日韩久久久久| 99视频免费观看| 日本成人中文字幕| 黄色一级视频播放| 亚洲精品高清视频在线观看| 伊人影院在线播放| 日韩欧美国产三级|