国产精品电影_久久视频免费_欧美日韩国产激情_成年人视频免费在线播放_日本久久亚洲电影_久久都是精品_66av99_九色精品美女在线_蜜臀a∨国产成人精品_冲田杏梨av在线_欧美精品在线一区二区三区_麻豆mv在线看

從Helm到 Operator:Kubernetes應用管理的進化

云計算 云原生
helm 的本質上和 kubectl apply yaml 一樣的,只是我們在定義 value.yaml 時幫我們處理了許多不需要用戶低頻修改的參數。

Helm 的作用

在開始前需要先對 kubernetes  Operator 有個簡單的認識。

以為我們在編寫部署一些簡單 Deployment 的時候只需要自己編寫一個 yaml 文件然后 kubectl apply 即可。

apiVersion: apps/v1  
kind: Deployment  
metadata:  
  labels:  
    app: k8s-combat  
  name: k8s-combat  
spec:  
  replicas: 1  
  selector:  
    matchLabels:  
      app: k8s-combat  
  template:  
    metadata:  
      labels:  
        app: k8s-combat  
    spec:  
      containers:  
        - name: k8s-combat  
          image: crossoverjie/k8s-combat:v1  
          imagePullPolicy: Always  
          resources:  
            limits:  
              cpu: "1"  
              memory: 300Mi  
            requests:  
              cpu: "0.1"  
              memory: 30Mi
kubectl apply -f deployment.yaml

這對于一些并不復雜的項目來說完全夠用了,但組件一多就比較麻煩了。

這里以 Apache Pulsar 為例:它的核心組件有:

  • Broker
  • Proxy
  • Zookeeper
  • Bookkeeper
  • Prometheus(可選)
  • Grafana(可選) 等組件,每個組件的啟動還有這依賴關系。

必須需要等 Zookeeper 和 Bookkeeper 啟動之后才能將流量放進來。

此時如何還繼續使用 yaml 文件一個個部署就會非常繁瑣,好在社區有提供 Helm 一鍵安裝程序,使用它我們只需要在一個同意的 yaml 里簡單的配置一些組件,配置就可以由 helm 來部署整個復雜的 Pulsar 系統。

components:  
  # zookeeper  
  zookeeper: true  
  # bookkeeper  
  bookkeeper: true  
  # bookkeeper - autorecovery  
  autorecovery: true  
  # broker  
  broker: true  
  # functions  
  functions: false  
  # proxy  
  proxy: true  
  # toolset  
  toolset: true  
  # pulsar manager  
  pulsar_manager: false  
monitoring:  
  # monitoring - prometheus  
  prometheus: true  
  # monitoring - grafana  
  grafana: true  
  # monitoring - node_exporter  
  node_exporter: true  
  # alerting - alert-manager  
  alert_manager: false

比如在 helm 的 yaml 中我們可以選擇使用哪些 components,以及是否啟用監控組件。

最后直接使用這個文件進行安裝:

helm install pulsar apache/pulsar \
 --values charts/pulsar/values.yaml \
 --set namespace=pulsar \
    --set initialize=true

它就會自動生成各個組件的 yaml 文件,然后統一執行。

所以 helm 的本質上和 kubectl apply yaml 一樣的,只是我們在定義 value.yaml 時幫我們處理了許多不需要用戶低頻修改的參數。

我們可以使用 helm 將要執行的 yaml 輸出后人工審核

helm install pulsar apache/pulsar --dry-run --debug > debug.yaml

Operator 是什么

Helm 的痛點

Helm 雖然可以幫我們部署或者升級一個大型應用,但他卻沒法幫我們運維這個應用。

舉個例子:比如我希望當 Pulsar Broker 的流量或者內存達到某個閾值后就指定擴容 Broker,閑時再自動回收。

或者某個 Bookkeeper 的磁盤使用率達到閾值后可以自動擴容磁盤,這些僅僅使用 Helm 時都是無法實現的。

以上這些需求我們目前也是通過監控系統發出報警,然后再由人工處理。

其中最大的痛點就是進行升級:

  • 升級ZK
  • 關閉auto recovery
  • 升級Bookkeeper
  • 升級Broker
  • 升級Proxy
  • 開啟auto recovery

因為每次升級是有先后順序的,需要依次觀察每個組件運行是否正常才能往后操作。

如果有 Operator 理性情況下下我們只需要更新一下鏡像版本,它就可以自動執行以上的所有步驟最后將集群升級完畢。

所以相對于 Helm 來說 Operator 是可以站在一個更高的視角俯視整個應用系統,它能發現系統哪個地方需要它從而直接修復。

CRD(Custom Resource Definitions)

而提到 Operator 那就不得不提到 CRD(Custom Resource Definitions)翻譯過來就是自定義資源。

這是 kubernetes 提供的一個 API 擴展機制,類似于內置的 Deployment/StatefulSet/Services 資源,CRD 是一種自定義的資源。

這里以我們常用的 prometheus-operator 和 VictoriaMetrics-operator 為例:

Prometheus:

  • **Prometheus**:用于定義 Prometheus 的 Deployment
  • **Alertmanager**:用于定義 Alertmanager
  • **ScrapeConfig**:用于定會抓取規則
apiVersion: monitoring.coreos.com/v1alpha1
kind: ScrapeConfig
metadata:
  name: static-config
  namespace: my-namespace
  labels:
    prometheus: system-monitoring-prometheus
spec:
  staticConfigs:
    - labels:
        job: prometheus
      targets:
        - prometheus.demo.do.prometheus.io:9090

使用時的一個很大區別就是資源的 kind: ScrapeConfig 為自定義的類型。

VictoriaMetrics 的 CRD:

  • VMPodScrape:Pod 的抓取規則
  • VMCluster:配置 VM 集群
  • VMAlert:配置 VM 的告警規則
  • 等等
# vmcluster.yaml
apiVersion: operator.victoriametrics.com/v1beta1
kind: VMCluster
metadata:
  name: demo
spec:
  retentionPeriod: "1"
  replicationFactor: 2
  vmstorage:
    replicaCount: 2
    storageDataPath: "/vm-data"
    storage:
      volumeClaimTemplate:
        spec:
          resources:
            requests:
              storage: "10Gi"
    resources:
      limits:
        cpu: "1"
        memory: "1Gi"
  vmselect:
    replicaCount: 2
    cacheMountPath: "/select-cache"
    storage:
      volumeClaimTemplate:
        spec:
          resources:
            requests:
              storage: "1Gi"
    resources:
      limits:
        cpu: "1"
        memory: "1Gi"
      requests:
        cpu: "0.5"
        memory: "500Mi"
  vminsert:
    replicaCount: 2

以上是用于創建一個 VM 集群的 CRD 資源,應用之后就會自動創建一個集群。

Operator 原理

Operator 通常是運行在 kubernetes API server 的 webhook 之上,簡單來說就是在一些內置資源的關鍵節點 API-server 會調用我們注冊的一個 webhook,在這個 webhook 中我們根據我們的 CRD 做一些自定義的操作。

理論上我們可以使用任何語言都可以寫 Operator,只需要能處理 api-server 的回調即可。

只是 Go 語言有很多成熟的工具,比如常用的 kubebuilder 和 operator-sdk.

他們內置了許多命令行工具,可以幫我們節省需要工作量。

這里以 operator-sdk 為例:

$ operator-sdk create webhook --group cache --version v1alpha1 --kind Memcached --defaulting --programmatic-validation

會直接幫我們創建好一個標準的 operator 項目:

├── Dockerfile
├── Makefile
├── PROJECT
├── api
│   └── v1alpha1
│       ├── memcached_webhook.go
│       ├── webhook_suite_test.go
├── config
│   ├── certmanager
│   │   ├── certificate.yaml
│   │   ├── kustomization.yaml
│   │   └── kustomizeconfig.yaml
│   ├── default
│   │   ├── manager_webhook_patch.yaml
│   │   └── webhookcainjection_patch.yaml
│   └── webhook
│       ├── kustomization.yaml
│       ├── kustomizeconfig.yaml
│       └── service.yaml
├── go.mod
├── go.sum
└── main.go

其中 Makefile 中包含了開發過程中常用的工具鏈(包括根據聲明的結構體自動生成 CRD 資源、部署k8s 環境測試等等)、Dockerfile 等等。

這樣我們就只需要專注于開發業務邏輯即可。

因為我前段時間給 https://github.com/open-telemetry/opentelemetry-operator 貢獻過兩個 feature,所以就以這個 Operator 為例:

它有一個 CRD: kind: Instrumentation,在這個 CRD 中可以將 OpenTelemetry 的 agent 注入到應用中。

apiVersion: opentelemetry.io/v1alpha1  
kind: Instrumentation  
metadata:  
  name: instrumentation-test-order
  namespace: test  
spec:  
  env:  
    - name: OTEL_SERVICE_NAME  
      value: order
  selector:  
    matchLabels:  
      app: order  
  java:  
    image: autoinstrumentation-java:2.4.0-release  
    extensions:  
      - image: autoinstrumentation-java:2.4.0-release  
        dir: /extensions  
  
    env:  
      - name: OTEL_RESOURCE_ATTRIBUTES  
        value: service.name=order  
      - name: OTEL_INSTRUMENTATION_MESSAGING_EXPERIMENTAL_RECEIVE_TELEMETRY_ENABLED  
        value: "true"  
      - name: OTEL_TRACES_EXPORTER  
        value: otlp  
      - name: OTEL_METRICS_EXPORTER  
        value: otlp  
      - name: OTEL_LOGS_EXPORTER  
        value: none  
      - name: OTEL_EXPORTER_OTLP_ENDPOINT  
        value: http://open-telemetry-opentelemetry-collector.otel.svc.cluster.local:4317  
      - name: OTEL_EXPORTER_OTLP_COMPRESSION  
        value: gzip  
      - name: OTEL_EXPERIMENTAL_EXPORTER_OTLP_RETRY_ENABLED  
        value: "true"

它的運行規則是當我們的 Pod 在啟動過程中會判斷 Pod 的注解中是否開啟了注入 OpenTelemetry 的配置。

如果開啟則會將我們在 CRD 中自定義的鏡像里的 javaagent 復制到業務容器中,同時會將下面的那些環境變量也一起加入的業務容器中。

要達到這樣的效果就需要我們注冊一個回調 endpoint。

mgr.GetWebhookServer().Register("/mutate-v1-pod", &webhook.Admission{  
    Handler: podmutation.NewWebhookHandler(cfg, ctrl.Log.WithName("pod-webhook"), decoder, mgr.GetClient(),  
       []podmutation.PodMutator{  
          sidecar.NewMutator(logger, cfg, mgr.GetClient()),  
          instrumentation.NewMutator(logger, mgr.GetClient(), mgr.GetEventRecorderFor("opentelemetry-operator"), cfg),  
       }),})

當 Pod 創建或有新的變更請求時就會回調我們的接口。

func (pm *instPodMutator) Mutate(ctx context.Context, ns corev1.Namespace, pod corev1.Pod) (corev1.Pod, error) {  
    logger := pm.Logger.WithValues("namespace", pod.Namespace, "name", pod.Name)
    }

在這個接口中我們就可以拿到 Pod 的信息,然后再獲取 CRD Instrumentation 做我們的業務邏輯。

var otelInsts v1alpha1.InstrumentationList  
if err := pm.Client.List(ctx, &otelInsts, client.InNamespace(ns.Name)); err != nil {  
    return nil, err  
}


// 從 CRD 中將數據復制到業務容器中。
pod.Spec.InitContainers = append(pod.Spec.InitContainers, corev1.Container{
 Name:      javaInitContainerName,
 Image:     javaSpec.Image,
 Command:   []string{"cp", "/javaagent.jar", javaInstrMountPath + "/javaagent.jar"},
 Resources: javaSpec.Resources,
 VolumeMounts: []corev1.VolumeMount{{
  Name:      javaVolumeName,
  MountPath: javaInstrMountPath,
 }},
})

for i, extension := range javaSpec.Extensions {
 pod.Spec.InitContainers = append(pod.Spec.InitContainers, corev1.Container{
  Name:      initContainerName + fmt.Sprintf("-extension-%d", i),
  Image:     extension.Image,
  Command:   []string{"cp", "-r", extension.Dir + "/.", javaInstrMountPath + "/extensions"},
  Resources: javaSpec.Resources,
  VolumeMounts: []corev1.VolumeMount{{
   Name:      javaVolumeName,
   MountPath: javaInstrMountPath,
  }},
 })
}

不過需要注意的是想要在測試環境中測試 operator 是需要安裝一個 cert-manage,這樣 webhook 才能正常的回調。

要使得 CRD 生效,我們還得先將 CRD 安裝進 kubernetes 集群中,不過這些 operator-sdk 這類根據已經考慮周到了。

我們只需要定義好 CRD 的結構體:

然后使用 Makefile 中的工具 make bundle 就會自動將結構體轉換為 CRD。

參考鏈接:

  • https://github.com/VictoriaMetrics/operator。
  • https://github.com/prometheus-operator/prometheus-operator。
責任編輯:姜華 來源: crossoverJie
相關推薦

2024-03-05 10:34:33

KubernetesPod云原生

2013-04-17 11:18:11

編程語言

2022-11-01 12:16:47

Nginx微服務編譯

2023-05-06 08:00:00

KubernetesK8s數據服務自動化

2023-12-27 06:48:49

KubernetesDevOpsHTTP

2022-08-04 08:00:54

安全管理服務器

2024-01-01 21:57:41

kubernetesCRDOperator

2024-01-29 01:15:11

HelmKubernetesKustomize

2024-05-06 08:08:31

2025-04-29 10:00:00

Kubernete云原生Helm

2022-03-29 09:35:15

FirefoxUI瀏覽器

2023-11-10 15:05:08

Kubernetes云計算

2025-09-12 16:13:12

2020-12-03 14:03:29

中臺數智化架構

2025-08-01 09:41:52

2018-12-21 11:01:05

存儲大數據RAID

2023-10-09 08:14:10

Helm管理應用

2019-09-02 13:57:07

Helm Chart工具Kubernetes

2009-06-01 10:11:55

路由器DIR-685D-Link

2025-07-25 11:00:00

云計算云原生數據
點贊
收藏

51CTO技術棧公眾號

国产日韩欧美制服另类| 成人免费视频免费观看| 亚洲国产日韩欧美在线图片| av无码久久久久久不卡网站| 国产亚洲人成a在线v网站| 午夜免费久久看| 日韩视频在线免费播放| 国产精品久久久久久久久久10秀| 亚洲精品一区二三区不卡| 婷婷丁香六月天| 成人中文字幕电影| 欧美大香线蕉线伊人久久国产精品 | 亚洲人人精品| 51精品国产黑色丝袜高跟鞋| 亚洲第一av| 欧美日韩一区小说| 嘿咻视频在线看| 久久久久久久网| 国产精品美女在线播放| 亚州av乱码久久精品蜜桃| 日韩中文字幕免费看| 成人日韩欧美| 狠狠久久五月精品中文字幕| 91网在线播放| 秋霞av亚洲一区二区三| 久久99热只有频精品91密拍| 亚洲美女视频在线免费观看| 精品国产一区二区三区麻豆小说| 亚洲人体av| 激情视频在线观看一区二区三区| 99热免费精品| 日本一区二区三区四区高清视频| 日韩国产成人精品| 69精品丰满人妻无码视频a片| 成人免费不卡视频| 日本人视频jizz页码69| 日韩一区欧美小说| 在线观看高清av| 欧美在线999| 性欧美videos高清hd4k| 亚洲日本中文字幕免费在线不卡| 成人全视频免费观看在线看| 久久久久久国产精品| 成人在线免费观看91| 国产精品午夜av在线| 日本美女一区二区三区视频| 国产原创popny丨九色 | 日韩欧美一中文字暮专区| 亚洲丝袜一区在线| 视频免费一区二区| 国产美女被下药99| 香蕉久久国产| 麻豆tv在线播放| 最近日韩中文字幕| 国产高清在线观看| 亚洲欧美色图片| 欧美一级二级三级视频| 国产三级精品在线不卡| 成人免费毛片app| 中文字幕在线影视资源| 精品久久久久av影院| 91成人小视频| 成人久久一区二区| 国产一区二区h| 亚洲人辣妹窥探嘘嘘| 欧美性受xxxx黑人xyx性爽| 99蜜月精品久久91| 91九色国产在线| 国产精品亚洲专一区二区三区| sihu成人| 日韩精品视频在线| 欧美三级情趣内衣| www.-级毛片线天内射视视| 亚洲人成人一区二区在线观看 | 韩国三级一区| 国产日本欧美一区| 国产一区福利在线| 黄页视频在线免费观看| 亚洲精品成人久久久| 欧洲毛片在线视频免费观看| 中文字幕中文字幕一区三区| 亚洲激情图片小说视频| 日本免费一区二区六区| 国产精品高清网站| 国产精品一二一区| av电影在线网| 66m—66摸成人免费视频| 日韩在线观看一区二区| 在线免费看黄av| 久久天天躁狠狠躁老女人| 国产精品久久国产愉拍| www.97| 中文字幕av一区二区三区谷原希美| 欧美国产先锋| 成人午夜剧场免费观看完整版| 日韩欧美在线观看一区二区三区| 在线观看欧美理论a影院| 欧美视频在线观看网站| 精品美女一区二区| 欧美xxx在线观看| 男人在线视频资源| 欧美黑人极品猛少妇色xxxxx| 狠狠色丁香久久婷婷综合_中| 在线免费看黄色| 7777精品久久久久久| 99riav久久精品riav| 超碰porn在线| 国产欧美日韩视频一区二区三区| 国产精品人成在线观看免费| 最新日韩一区| 一区二区三区欧美在线| 欧美嫩在线观看| 91精品亚洲| 中文资源在线网| 68精品久久久久久欧美| 26uuu久久综合| 黄色日韩网站| 大片在线观看网站免费收看| 精品国产一区二区精华| 国产精品主播| 三区四区在线视频| av成人观看| 午夜欧美一区二区三区在线播放| 日韩美女毛片| 亚洲一级免费观看| 久久久亚洲精选| 国产精品妹子av| 久久99精品久久久久久欧洲站| 97免费视频观看| 国产亚洲欧美日韩美女| 国产黄色精品网站| 欧美一区 二区 三区| 毛片在线视频观看| 在线观看亚洲区| 成av人片一区二区| 亚洲国产一区二区久久| 欧美变态另类刺激| 欧美日本高清视频| 亚洲视频在线一区| 日韩av自拍| 最近中文字幕在线中文视频 | 色噜噜一区二区| 亚洲第一福利视频| 国产一区二区三区久久悠悠色av | 久操网在线观看| 最近2019中文免费高清视频观看www99 | 天堂美国久久| 亚洲高清成人影院| 国产伦精品一区二区三区在线| 欧美主播一区二区三区美女| 国产精品大片| 黄色动漫在线观看| 亚洲成人动漫在线| 欧美理论片在线观看| 亚洲欧美国产三级| 国产精品二区不卡| 国产调教视频在线观看| 在线国产99| 久久综合久久88| 日韩一区日韩二区| 欧美 亚欧 日韩视频在线 | 手机av在线| 极品美女扒开粉嫩小泬| 久久99热精品这里久久精品| 国产精品日日摸夜夜摸av| 不卡日本视频| 中日韩高清电影网| 日韩欧美精品在线观看| 精品久久久久久中文字幕大豆网| 亚洲欧洲另类国产综合| 国产人成一区二区三区影院| 亚洲精品综合| 亚洲精品久久久久久一区二区| 久久久久久9999| 色婷婷国产精品久久包臀 | 国产日本在线视频| 欧美女同在线观看| 一区二区三区四区五区视频| 国产亚洲精品久久久久久牛牛 | 成人国产亚洲欧美成人综合网 | 欧美激情91| 亚洲风情在线资源| 2020色愉拍亚洲偷自拍| 成人av资源网| 中国人与牲禽动交精品| 亚洲午夜精品17c| 另类综合日韩欧美亚洲| 久久香蕉精品香蕉| 番号集在线观看| 国产精品一线天粉嫩av| 日韩av电影天堂| 欧美理论视频| yw193.com尤物在线| 免费网站在线观看视频 | 国产欧美中文字幕| 日韩极品精品视频免费观看| 欧美黄色一级片视频| 18av在线播放| 伊人久久国产| 91精品精品|