国产精品电影_久久视频免费_欧美日韩国产激情_成年人视频免费在线播放_日本久久亚洲电影_久久都是精品_66av99_九色精品美女在线_蜜臀a∨国产成人精品_冲田杏梨av在线_欧美精品在线一区二区三区_麻豆mv在线看

首次部署 Kubernetes 應用,總會忽略這些事

新聞 前端
根據我的個人經驗,大多數人似乎傾向于通過 Helm 或者手動方式將應用程序甩給 Kubernetes,之后就坐等每天輕松調用的美好生活。

 根據我的個人經驗,大多數人似乎傾向于通過 Helm 或者手動方式將應用程序甩給 Kubernetes,之后就坐等每天輕松調用的美好生活。但在 GumGum 公司的實踐當中,我們體會到 Kubernetes 應用的一系列“陷阱”,也希望把這些陷阱與大家分享,給您的 Kubernetes 探索之旅帶來一點啟發。

[[344530]]

1. 配置 Pod 請求與限制

我們從配置一套可以運行 Pod 的簡單環境開始。Kubernetes 在處理 Pod 調度與故障狀態方面確實表現出色,但我們也意識到,如果 Kubernetes 調度程序無法衡量 Pod 的成功運行究竟需要多少資源,那么有時候部署工作可能面臨挑戰。而這一挑戰,也正是資源請求與限制機制的設計根源。目前,設置應用程序請求與限制方面的最佳實踐仍然存在不少爭議。實際上,這項工作更像是一門藝術,而非單純的科學。下面,我們聊聊 GumGum 公司內部對這個問題的看法:

Pod 請求: 這是調度程序用于衡量 Pod 最佳部署方法的主要指標。

下面來看 Kubernetes 說明文檔中的相關描述:

過濾步驟會在可行的情況下找到一組 Pod。例如,PodFitsResources 過濾器會檢查候選節點是否具備充足的可用資源,以滿足 Pod 提出的特定資源請求。

在內部,我們通過這樣一種方式使用應用程序請求:通過設置,我們對應用程序正常運行實際工作負載時的資源需求做出估計。以此為基礎,調度程序即可更合理地放置節點。最初,我們希望將請求設置得更高一些,保證各個 Pod 都擁有充足的資源。但我們很快發現,這種方式會大大增加調度時間,并導致部分 Pod 無法完全調度。這樣的結果實際上與我們完全不指定資源請求時看到的情況類似:在后一種情況下,由于控制平面并不清楚應用程序需要多少資源,因此調度程序經常會“逐出”Pod 且不再重新加以調度。正是這一調度算法中的關鍵組成部分,導致我們無法得到符合預期的調度效果。

Pod 限制: 即對于 Pod 的直接限制,代表著集群允許各容器所使用的最大資源量。

同樣來看官方說明文檔中的描述:

如果您為容器設置了 4GiB 的內存限制,則 kubelet(與容器運行時)將強制執行此限制。運行時將防止容器使用超出所配置上限的資源容量。例如,當容器中的進程所消耗的內存量超過獲準數量時,系統內核將終止該資源分配嘗試,并提示內存不足(OOM)錯誤。

容器所使用的實際資源量可以高于其請求,但永遠不能高于配置上限。很明顯,對限制指標的正確設置相當困難,但也非常重要。在理想情況下,我們希望讓 Pod 的資源需求在整個流程生命周期內發生變化,而又不致干擾到系統上的其他流程——這也正是限制機制的意義所在。遺憾的是,我們無法明確給出最合適的設置值,只能遵循以下過程進行調整:

  1. 使用負載測試工具,我們可以模擬基準流量水平,并觀察 Pod 的資源使用情況(包括內存與 CPU)。
  2. 我們將 Pod 請求設置在極低水平,同時將 Pod 資源限制保持在請求值的約 5 倍,而后觀察其行為。當請求過低時,進程將無法啟動,并時常引發神秘的 Go 運行時錯誤。

這里需要強調的一點在于,資源限制越嚴格,Pod 的調度難度也就越大。這是因為 Pod 調度要求目標節點擁有充足的資源。例如,如果您的資源非常有限(內存只有 4GB),那么即使是運行輕量級 Web 服務器進程都很可能非常困難。在這種情況下,大家需要進行橫向擴展,而且各個新容器也應運行在同樣擁有至少 4GB 可用內存的節點之上。如果不存在這樣的節點,您需要在集群中引入新節點以處理該 Pod,這無疑會令啟動時間有所增加。總之,請務必在資源請求與限制之間找到最小“邊界”,保證快速、平衡實現擴展。

2. 配置 Liveness 與 Readiness 探針

Kubernetes 社區中經常討論的另一個有趣話題,就是如何配置 Linvess 與 Readiness 探針。合理使用這兩種探針,能夠為我們帶來一種運行容錯軟件、并最大程度減少停機時間的機制。但如果配置不正確,它們也可能對應用程序造成嚴重的性能影響。下面來看這兩種探針的基本情況,以及如何進行使用判斷:

Liveness 探針:“用于指示容器是否正在運行。如果 Liveness 探針失敗,則 kubelet 將關閉容器,且容器將開始執行重新啟動策略。如果容器并不提供 Liveness 探針,則其默認狀態被視為成功。”—Kubernetes說明文檔

Liveness 探針的資源需求必須很低,因為它們需要頻繁運行,并需要在應用程序運行時向 Kubernetes 發出通知。請注意,如果將其設置為每秒運行一次,則系統將需要承擔每秒 1 次的額外請求處理量。因此,請務必認真考慮如何處理這些額外請求及相應資源。在 GumGum,我們將 Liveness 探針設置為在應用程序主組件運行時進行響應,且不考慮數據是否已經完全可用(例如來自遠程數據庫或緩存的數據)。舉例來說,我們會在應用當中設置一個特定的“health”端點,單純負責返回 200 響應代碼。只要仍在返回響應,就表明該進程已經啟動并可以處理請求(但尚未正式產生流量)。

Readiness 探針:“指示容器是否準備好處理請求。如果 Readiness 探針失敗,則端點控制器將從與該 Pod 相匹配的所有服務端點中,刪除該 Pod 的 IP 地址。”

Readiness 探針的運行成本要高得多,因為其作用在于持續告知后端,整個應用程序正處于運行狀態且準備好接收請求。關于此探針是否應該訪問數據庫,社區中存在諸多爭論。考慮到 Readiness 探針造成的開銷(需要經常運行,但頻繁可以靈活調整),我們決定在某些應用程序中只在從數據庫返回記錄后,才開始“提供流量”。通過對 Readiness 探針的精心設計,我們已經能夠實現更高的可用性水平以及零停機時間部署。

但如果大家確實有必要通過應用程序的 Readiness 探針隨時檢查數據庫請求的就緒狀態,請盡可能控制查詢操作的資源用量,例如……

  1. SELECT small_item FROM table LIMIT 1 

以下,是我們在 Kubernetes 中為這兩種探針指定的配置值:

  1. livenessProbe: 
  2.  
  3. httpGet: 
  4.  
  5. path: /api/liveness 
  6.  
  7. port: http 
  8.  
  9. readinessProbe: 
  10.  
  11. httpGet: 
  12.  
  13. path: /api/readiness 
  14.  
  15. port: http periodSeconds: 2 

您還可以添加其他一些配置選項:

  • initialDelaySeconds- 容器啟動的多少秒后,探針開始實際運行
  • periodSeconds- 兩次探測之間的等待間隔
  • timeoutSeconds- 需要經過多少秒,才能判定某一 Pod 處于故障狀態。相當于傳統意義上的超時指標
  • failureThreshold- 探針失敗多少次后,才向 Pod 發出重啟信號
  • successThreshold- 探針成功多少次后,才能判定 Pod 進入就緒狀態(通常使用在 Pod 啟動或者故障恢復之后)

3. 設置默認 Pod 網絡策略

Kubernetes 使用一種“扁平”網絡拓撲;在默認情況下,所有 Pod 之間都可以直接相互通信。但結合實際用例,這種通信能力往往不必要甚至不可接受。由此帶來的一大潛在安全隱患在于,如果某一易受攻擊的應用程序遭到利用,則攻擊者即可由此獲取完全訪問權限,進而將流量發送至網絡上的所有 Pod 當中。因此我們也有必要在 Pod 網絡中應用最低訪問原則,在理想情況下通過網絡策略明確指定哪些容器之間允許建立相互連接。

以下列簡單策略為例,可以看到其將拒絕特定命名空間中的所有入口流量:

  1. --- 
  2.  
  3. apiVersion: networking.k8s.io/v1 
  4.  
  5. kind: NetworkPolicy 
  6.  
  7. metadata: 
  8.  
  9. name: default-deny-ingress 
  10.  
  11. spec: 
  12.  
  13. podSelector: {} 
  14.  
  15. policyTypes: 
  16.  
  17. - Ingress 

4. 通過 Hooks 與 Init 容器執行自定義行為

我們希望在 Kubernetes 系統中實現的核心目標之一,在于嘗試為現有開發人員提供近乎零停機時間的部署支持。但不同應用程序往往擁有不同的關閉方式與資源清理過程,因此整體零停機目標很難實現。首先橫亙在我們面前的,就是 Nginx 這道難關。我們注意到在啟動 Pod 的滾動部署時,活動連接在成功終止之前就會被丟棄。經過廣泛的在線研究,事實證明 Kubernetes 在終止 Pod 之前,并不會等待 Nginx 用盡其連接資源。使用預停止 hook,我們得以注入此項功能,并由此實現了零停機時間。

  1. lifecycle: 
  2.  
  3. preStop: 
  4.  
  5. exec: 
  6.  
  7. command: ["/usr/local/bin/nginx-killer.sh"
  8.  
  9. isnginx-killer.sh: 
  10.  
  11. #!/bin/bashsleep 3 
  12.  
  13. PID=$(cat /run/nginx.pid) 
  14.  
  15. nginx -s quitwhile [ -d /proc/$PID ]; do 
  16.  
  17. echo "Waiting while shutting down nginx..." 
  18.  
  19. sleep 10 
  20.  
  21. done 

另一個實用范例,是通過 Init 容器處理特定應用程序的啟動任務。部分高人氣 Kubernetes 項目還會使用 Istio 等 init-containers 將 Envoy 處理代碼注入 Pod 當中。如果您在應用程序啟動之前,需要首先完成繁重的數據庫遷移過程,那么 Init 容器特別適用。您也可以為此過程設定更高的資源上限,保證其不受主應用程序的限制設定影響。

另一種常見模式是向 init-conatiner 提供 secrets 訪問權,并由該容器將這些憑證公布給主 Pod,從而防止通過主應用 Pod 本體對 secret 發出示授權訪問。同樣來看說明文檔中的表述:

Init 容器能夠安全運行實用程序或自定義代碼,避免其破壞應用程序容器鏡像的安全性。通過剝離這些不必要的工具,您可以限制應用程序容器鏡像的攻擊面。

5. 內核調優

最后,我們來聊聊一項最先進的技術。Kubernetes 本身是一套高度靈活的平臺,可幫助您以最適合的方式運行工作負載。在 GumGum,我們擁有多種高性能應用程序,其對運行資源有著極為苛刻的要求。在進行了廣泛的負載測試之后,我們發現有某一款應用程序難以在使用 Kubernetes 默認設置的前提下處理必要的流量負載。但 Kubernetes 允許我們運行一個高權限容器,通過修改為其配置適用于特定 Pod 的內核運行參數。通過以下示例代碼,我們修改了 Pod 中的最大開啟連接數量:

  1. initContainers: 
  2.  
  3. - name: sysctl 
  4.  
  5. image: alpine:3.10 
  6.  
  7. securityContext: 
  8.  
  9. privileged: true 
  10.  
  11. command: ['sh''-c'"sysctl -w net.core.somaxconn=32768"

這是一種使用頻率較低的高級技術。如果您的應用程序難以在高負載場景下健康運行,大家可能需要調整其中的部分參數。這里建議各位在官方說明文檔中參閱參數調優與可選值的相關細節信息。

6. 總結

雖然 Kubernetes 已經算是一種幾乎“開箱即用”的解決方案,但大家仍然需要采取一系列關鍵步驟以保證應用程序的平衡運行。在將應用程序遷移至 Kubernetes 之上的整個過程中,請務必重視負載測試“循環”——運行應用程序,對其進行負載測試,觀察指標與擴展行為,基于結果調整您的配置,而后重復。請盡量客觀地設定預期流量,并嘗試將流量增加至超限水平,借此查看哪些組件會最先陷入癱瘓。通過這種迭代方法,大家也許只需要采取本文中介紹的部分步驟即可獲得理想的應用程序運行效果。總之,請永遠關注以下幾個核心問題:

  • 我的應用程序的資源占用量是多少?占用量會如何變化?
  • 服務的實際擴展要求是什么?預計需要處理怎樣的平均流量?峰值流量處于怎樣的水平?
  • 服務可能多久需要進行一次橫向擴展?新的 Pod 要過多久才能正式開始接收流量?
  • 我們的 Pod 終止過程優雅可控嗎?是否需要這種優雅性與可控性?我們能否實現零停機時間部署?
  • 該如何盡可能降低安全風險,并限制 Pod 入侵狀況的“爆炸半徑”(影響范圍)?服務中是否存在某些不必要的權限或訪問能力?

Kubernetes 是一套令人印象深刻的強大平臺,您可以在這里運用最佳實踐為整個集群部署數千項服務。但不同的軟件之間總是有所差別,有時候您的應用程序可能需要進一步調整,好在 Kubernetes 為我們提供不少調整“旋鈕”,盡可能讓用戶輕松達成與預期相符的技術目標。將資源請求與限制、Livenss 與 Readiness 檢查、init-containers、網絡策略以及自定義內核調優等方法相結合,相信大家能夠在 Kubernetes 平臺之上實現更出色的基準性能、彈性與快速規模擴展能力。

 

責任編輯:張燕妮 來源: 架構頭條
相關推薦

2019-12-06 14:24:58

Kubernetes容器YAML

2025-10-29 07:15:00

Kubernetes集群插件

2017-03-07 11:45:57

DevOps容器

2021-03-26 08:41:11

Go語言Docker

2017-04-10 15:11:16

2020-12-11 19:06:03

Kubernetes工具應用程序

2021-12-30 19:34:15

Java泛型JDK

2015-07-01 13:34:22

Kubernetes應用部署模型

2021-03-11 15:21:57

區塊鏈數據政府

2022-08-26 07:52:54

Kubernetes容器混合云

2019-11-07 14:00:36

MySQL數據庫SQL

2021-11-02 08:41:44

Kubernetes Nginx部開源

2020-09-17 16:08:29

網絡安全數據技術

2022-06-14 17:11:38

Android隱私保護用戶

2020-12-04 18:44:29

KubernetesHTTPS Wordpress

2020-02-06 16:38:53

辦公電腦互聯網

2021-09-28 06:28:50

云原生安全云計算

2021-11-20 23:15:28

Java編程Bug

2017-11-02 21:02:11

數據庫數據庫的管理字段長度

2022-08-21 16:50:36

Kubeadm?Kubernetes
點贊
收藏

51CTO技術棧公眾號

国产亚洲短视频| 日本人视频jizz页码69| 超碰在线人人| 最新日韩av在线| 日韩资源av在线| 国产精品1区在线| 久久久电影免费观看完整版| 丝袜美腿一区| xxxx性欧美| 亚洲婷婷丁香| 国产精品视频免费观看| 亚洲三级色网| 国产视频福利一区| 亚洲国内自拍| 欧美日韩中文字幕在线播放| 蜜臀久久久久久久| 久久久久99精品成人片| 91免费看片在线观看| 久久国产乱子伦免费精品| 国产视频视频一区| 亚洲热app| 国产一区二区三区久久精品| 久久电影在线| 亚洲在线视频福利| 国产成人免费视频网站高清观看视频| 欧美视频在线播放一区| 欧洲av在线精品| 豆花视频一区| 欧美一区二区综合| 亚洲精品视频在线看| 3p视频在线观看| 在线观看欧美日韩国产| 成人av在线资源网站| 久久久久久成人| 日韩在线看片| 欧美多人爱爱视频网站| 久久久久国产精品一区三寸 | 日本va欧美va欧美va精品| 日本调教视频在线观看| 中文字幕亚洲一区二区三区五十路| 91成人免费| √天堂资源地址在线官网| 成人免费视频观看视频| 欧美久久免费观看| 日本va欧美va瓶| 久久香蕉精品香蕉| 先锋av资源在线| 亚洲欧美日韩精品综合在线观看| 日韩欧美二区三区| 老司机精品视频导航| 95精品视频| 国产免费福利| 在线成人av电影| 国产丝袜一区二区三区| 国产午夜精品福利| 国产一区二区三区成人欧美日韩在线观看 | 欧洲激情一区二区| 蜜桃av一区二区三区| 在线看片国产福利你懂的| 成人午夜免费在线视频| 美女久久久久久久| 亚洲国产综合91精品麻豆| 亚洲二区视频| 玖玖精品一区| 日韩三级影院| 免费av网页| 国产九色porny| 性欧美大战久久久久久久免费观看| 91精品国产91久久久久久不卡| 日韩你懂的在线观看| 色综合天天做天天爱| 国产一区二区三区免费看 | 美女三级99| 九九热这里只有精品免费看| 中文成人综合网| 欧美另类综合| a级片在线免费| 苍井空浴缸大战猛男120分钟| 国产va免费精品高清在线| 欧美性猛交xxxx免费看| 日韩电影在线一区二区三区| 香蕉久久aⅴ一区二区三区| 精品国产一区a| 色老汉一区二区三区| 国产探花在线精品| 国产午夜在线视频| 成人永久免费网站| 好男人www社区| 国产美女作爱全过程免费视频| 韩国成人一区| 波多野结衣成人在线| 国产精品啪视频| 97视频在线观看免费| 日韩欧美中文字幕在线播放| 日本一区二区在线看| 国产精品一区专区欧美日韩| av亚洲精华国产精华| 免费的黄网站在线观看| 国产免费亚洲高清| 91精品蜜臀在线一区尤物| 久久精品国产免费| 亚洲一区二区三区久久久| 狠狠操第一页| 裸模一区二区三区免费| 亚洲人成网站777色婷婷| 国产精品丝袜黑色高跟| 在线欧美不卡| 成人另类视频| av网站免费观看| 麻豆精品蜜桃一区二区三区| 日韩最新在线视频| 欧美一级二级在线观看| 亚洲福利国产精品| 久久免费午夜影院| 99久久精品久久久久久清纯| 美女久久99| 澳门av一区二区三区| 电影天堂最新网址| 一级二级三级欧美| 97视频在线免费观看| 7777女厕盗摄久久久| 国产精品乱人伦| 男人的天堂久久精品| 免费久久精品| 国产综合av| www.av在线| 午夜免费精品视频| 精品国产乱码久久久久软件| 欧美怡红院视频一区二区三区| 91精品国产入口在线| 一区二区三区四区亚洲| 日本中文字幕不卡| 捆绑紧缚一区二区三区视频| 中文字幕一区二区三区欧美日韩| 成人污污视频| 蜜桃麻豆av在线| 黄视频在线观看网站| 在线免费观看h| julia中文字幕久久亚洲蜜臀| 六月丁香婷婷在线| 午夜免费福利小电影| 成年丰满熟妇午夜免费视频| 一级黄色免费在线观看| 亚洲精品成人久久久998| 国产伦精品一区二区三区高清| 国产精品88a∨| 国产日韩欧美综合| 成人免费视频网站| 97免费资源站| 超碰97人人在线| 一区二区精品视频| 成年人午夜视频在线观看| 欧美xxxxx在线视频| av免费观看国产| 色综合天天色综合| 日韩中文字幕在线免费| 欧美中日韩在线| 91av视频在线| 日韩av片在线看| 成人免费视频视频在| а√天堂www在线а√天堂视频| 岛国视频一区免费观看| 淫视频在线观看| 粉嫩虎白女毛片人体| 99久久婷婷国产综合精品首页| 国产精品人人妻人人爽人人牛| 波多野结衣在线网站| 久久久久国产精品嫩草影院| 成人影院天天5g天天爽无毒影院| av亚洲一区二区三区| 国产91综合网| 亚洲精品久久久蜜桃| 欧美日韩在线一区二区| 亚洲精品wwww| 欧美一级黄色网| 欧美国产一区二区在线| 97国产超碰| 丝袜人妻一区二区三区| 在线日韩影院| 首页国产欧美久久| 国产中文字幕日韩| 日本夜爽爽一二区| 成人黄色免费网站| 一本一道久久a久久精品蜜桃| 99视频这里有精品| 国产成人亚洲综合色影视| 在线日韩中文字幕| 国产性色av一区二区| 波多野结衣家庭教师在线| gogo在线观看| 精品国产欧美日韩| 国产精品一二三四五| 午夜电影网亚洲视频| 欧美大片免费观看在线观看网站推荐| 岛国视频一区免费观看| 国产一区二区影视| 伊人久久大香线蕉综合网站 | av丝袜在线| 中文字幕中文乱码欧美一区二区 | 欧美激情一区二区三区在线视频|