国产精品电影_久久视频免费_欧美日韩国产激情_成年人视频免费在线播放_日本久久亚洲电影_久久都是精品_66av99_九色精品美女在线_蜜臀a∨国产成人精品_冲田杏梨av在线_欧美精品在线一区二区三区_麻豆mv在线看

K8s-服務網格實戰-配置 Mesh(灰度發布)

云計算 云原生
從 Istio 的流量模型中可以看出:Istio 支持管理集群的出入口請求(gateway),同時也支持管理集群內的 Mesh 流量,也就是集群內服務之間的請求。

在上一篇 k8s-服務網格實戰-入門Istio中分享了如何安裝部署 Istio,同時可以利用 Istio 實現 gRPC 的負載均衡。

今天我們更進一步,深入了解使用 Istio 的功能。

從 Istio 的流量模型中可以看出:Istio 支持管理集群的出入口請求(gateway),同時也支持管理集群內的 mesh 流量,也就是集群內服務之間的請求。

本次先講解集群內部的請求,配合實現以下兩個功能:

  • 灰度發布(對指定的請求分別路由到不同的 service 中)
  • 配置 service 的請求權重

灰度發布

在開始之前會部署兩個 deployment 和一個 service,同時這兩個 deployment 所關聯的 Pod 分別對應了兩個不同的 label,由于在灰度的時候進行分組。

使用這個 yaml 會部署所需要的 deployment 和 service。

kubectl apply -f https://raw.githubusercontent.com/crossoverJie/k8s-combat/main/deployment/istio-mesh.yaml

首先設想下什么情況下我們需要灰度發布,一般是某個重大功能的測試,只對部分進入內測的用戶開放入口。

假設我們做的是一個 App,我們可以對拿到了內測包用戶的所有請求頭中加入一個版本號。

比如 versinotallow=200 表示新版本,versinotallow=100 表示老版本。同時在服務端會將這個版本號打印出來,用于區分請求是否進入了預期的 Pod。

// Client 
version := r.URL.Query().Get("version")  
name := "world"  
ctx, cancel := context.WithTimeout(context.Background(), time.Second)  
md := metadata.New(map[string]string{  
    "version": version,  
})  
ctx = metadata.NewOutgoingContext(ctx, md)  
defer cancel()  
g, err := c.SayHello(ctx, &pb.HelloRequest{Name: name})

// Server
func (s *server) SayHello(ctx context.Context, in *pb.HelloRequest) (*pb.HelloReply, error) {  
    md, ok := metadata.FromIncomingContext(ctx)  
    var version string  
    if ok {  
       version = md.Get("version")[0]  
    }    log.Printf("Received: %v, version: %s", in.GetName(), version)  
    name, _ := os.Hostname()  
    return &pb.HelloReply{Message: fmt.Sprintf("hostname:%s, in:%s, version:%s", name, in.Name, version)}, nil  
}

對 service 分組

進行灰度測試時往往需要新增部署一個灰度服務,這里我們稱為 v2(也就是上圖中的 Pod2)。

同時需要將 v1 和 v2 分組:

apiVersion: networking.istio.io/v1alpha3  
kind: DestinationRule  
metadata:  
  name: k8s-combat-service-ds  
spec:  
  host: k8s-combat-service-istio-mesh  
  subsets:  
    - name: v1  
      labels:  
        app: k8s-combat-service-v1  
    - name: v2  
      labels:  
        app: k8s-combat-service-v2

這里我們使用 Istio 的 DestinationRule 定義 subset,也就是將我們的 service 下的 Pod 分為 v1/v2。

使用 標簽 app 進行分組

注意這里的 host: k8s-combat-service-istio-mesh 通常配置的是 service 名稱。

apiVersion: v1  
kind: Service  
metadata:  
  name: k8s-combat-service-istio-mesh  
spec:  
  selector:  
    appId: "12345"  
  type: ClusterIP  
  ports:  
    - port: 8081  
      targetPort: 8081  
      name: app  
    - name: grpc  
      port: 50051  
      targetPort: 50051

也就是這里 service 的名稱,同時也支持配置為 host: k8s-combat-service-istio-mesh.default.svc.cluster.local,如果使用的簡寫Istio 會根據當前指定的 namespace 進行解析。

Istio 更推薦使用全限定名替代我們這里的簡寫,從而避免誤操作。

當然我們也可以在 DestinationRule 中配置負載均衡的策略,這里我們先略過:

apiVersion: networking.istio.io/v1alpha3  
kind: DestinationRule  
metadata:  
  name: k8s-combat-service-ds  
spec:  
  host: k8s-combat-service-istio-mesh 
  trafficPolicy:
    loadBalancer:
      simple: ROUND_ROBIN

這樣我們就定義好了兩個分組:

  • v1:app: k8s-combat-service-v1
  • v2:app: k8s-combat-service-v2

之后就可以配置路由規則將流量分別指定到兩個不同的組中,這里我們使用 VirtualService 進行配置。

apiVersion: networking.istio.io/v1alpha3  
kind: VirtualService  
metadata:  
  name: k8s-combat-service-vs  
spec:  
  gateways:  
    - mesh  
  hosts:  
    - k8s-combat-service-istio-mesh # match this host
http:  
  - name: v1  
    match:  
      - headers:  
          version:  
            exact: '100'  
    route:  
      - destination:  
          host: k8s-combat-service-istio-mesh  
          subset: v1  
  - name: v2  
    match:  
      - headers:  
          version:  
            exact: '200'  
    route:  
      - destination:  
          host: k8s-combat-service-istio-mesh  
          subset: v2  
  - name: default  
    route:  
      - destination:  
          host: k8s-combat-service-istio-mesh  
          subset: v1

這個規則很簡單,會檢測 http 協議的 header 中的 version 字段值,如果為 100 這路由到 subset=v1 這個分組的 Pod 中,同理為 200 時則路由到 subset=v2 這個分組的 Pod 中。

當沒有匹配到 header 時則進入默認的 subset:v1

gRPC 也是基于 http 協議,它的 metadata 也就對應了 http 協議中的 header。

header=100

Greeting: hostname:k8s-combat-service-v1-5b998dc8c8-hkb72, in:world, version:100istio-proxy@k8s-combat-service-v1-5b998dc8c8-hkb72:/$ curl "http://127.0.0.1:8081/grpc_client?name=k8s-combat-service-istio-mesh&versinotallow=100"
Greeting: hostname:k8s-combat-service-v1-5b998dc8c8-hkb72, in:world, version:100istio-proxy@k8s-combat-service-v1-5b998dc8c8-hkb72:/$ curl "http://127.0.0.1:8081/grpc_client?name=k8s-combat-service-istio-mesh&versinotallow=100"
Greeting: hostname:k8s-combat-service-v1-5b998dc8c8-hkb72, in:world, version:100istio-proxy@k8s-combat-service-v1-5b998dc8c8-hkb72:/$ curl "http://127.0.0.1:8081/grpc_client?name=k8s-combat-service-istio-mesh&versinotallow=100"
Greeting: hostname:k8s-combat-service-v1-5b998dc8c8-hkb72, in:world, version:100istio-proxy@k8s-combat-service-v1-5b998dc8c8-hkb72:/$ curl "http://127.0.0.1:8081/grpc_client?name=k8s-combat-service-istio-mesh&versinotallow=100"

header=200

Greeting: hostname:k8s-combat-service-v2-5db566fb76-xj7j6, in:world, version:200istio-proxy@k8s-combat-service-v1-5b998dc8c8-hkb72:/$ curl "http://127.0.0.1:8081/grpc_client?name=k8s-combat-service-istio-mesh&versinotallow=200"
Greeting: hostname:k8s-combat-service-v2-5db566fb76-xj7j6, in:world, version:200istio-proxy@k8s-combat-service-v1-5b998dc8c8-hkb72:/$ curl "http://127.0.0.1:8081/grpc_client?name=k8s-combat-service-istio-mesh&versinotallow=200"
Greeting: hostname:k8s-combat-service-v2-5db566fb76-xj7j6, in:world, version:200istio-proxy@k8s-combat-service-v1-5b998dc8c8-hkb72:/$ curl "http://127.0.0.1:8081/grpc_client?name=k8s-combat-service-istio-mesh&versinotallow=200"
Greeting: hostname:k8s-combat-service-v2-5db566fb76-xj7j6, in:world, version:200istio-proxy@k8s-combat-service-v1-5b998dc8c8-hkb72:/$ curl "http://127.0.0.1:8081/grpc_client?name=k8s-combat-service-istio-mesh&versinotallow=200"
Greeting: hostname:k8s-combat-service-v2-5db566fb76-xj7j6, in:world, version:200istio-proxy@k8s-combat-service-v1-5b998dc8c8-hkb72:/$ curl "http://127.0.0.1:8081/grpc_client?name=k8s-combat-service-istio-mesh&versinotallow=200"
Greeting: hostname:k8s-combat-service-v2-5db566fb76-xj7j6, in:world, version:200istio-proxy@k8s-combat-service-v1-5b998dc8c8-hkb72:/$ curl "http://127.0.0.1:8081/grpc_client?name=k8s-combat-service-istio-mesh&versinotallow=200"
Greeting: hostname:k8s-combat-service-v2-5db566fb76-xj7j6, in:world, version:200istio-proxy@k8s-combat-service-v1-5b998dc8c8-hkb72:/$ curl "http://127.0.0.1:8081/grpc_client?name=k8s-combat-service-istio-mesh&versinotallow=200"

根據以上的上面的測試請求來看,只要我們請求頭里帶上指定的 version 就會被路由到指定的 Pod 中。

利用這個特性我們就可以在灰度驗證的時候單獨發一個灰度版本的 Deployment,同時配合客戶端指定版本就可以實現灰度功能了。

配置權重

同樣基于 VirtualService 我們還可以對不同的 subset 分組進行權重配置。

apiVersion: networking.istio.io/v1alpha3  
kind: VirtualService  
metadata:  
  name: k8s-combat-service-vs  
spec:  
  gateways:  
    - mesh  
  hosts:  
    - k8s-combat-service-istio-mesh # match this host  
  http:  
    - match:  
        - uri:  
            exact: /helloworld.Greeter/SayHello  
      route:  
        - destination:  
            host: k8s-combat-service-istio-mesh  
            subset: v1  
          weight: 10  
        - destination:  
            host: k8s-combat-service-istio-mesh  
            subset: v2  
          weight: 90  
      timeout: 5000ms

這里演示的是針對 SayHello 接口進行權重配置(當然還有多種匹配規則),90% 的流量會進入 v2 這個 subset,也就是在 k8s-combat-service-istio-mesh service 下的 app: k8s-combat-service-v2 Pod。

Greeting: hostname:k8s-combat-service-v2-5db566fb76-xj7j6, in:world, version:200istio-proxy@k8s-combat-service-v1-5b998dc8c8-hkb72:/$ curl "http://127.0.0.1:8081/grpc_client?name=k8s-combat-service-istio-mesh&versinotallow=200"
Greeting: hostname:k8s-combat-service-v2-5db566fb76-xj7j6, in:world, version:200istio-proxy@k8s-combat-service-v1-5b998dc8c8-hkb72:/$ curl "http://127.0.0.1:8081/grpc_client?name=k8s-combat-service-istio-mesh&versinotallow=200"
Greeting: hostname:k8s-combat-service-v2-5db566fb76-xj7j6, in:world, version:200istio-proxy@k8s-combat-service-v1-5b998dc8c8-hkb72:/$ curl "http://127.0.0.1:8081/grpc_client?name=k8s-combat-service-istio-mesh&versinotallow=200"
Greeting: hostname:k8s-combat-service-v2-5db566fb76-xj7j6, in:world, version:200istio-proxy@k8s-combat-service-v1-5b998dc8c8-hkb72:/$ curl "http://127.0.0.1:8081/grpc_client?name=k8s-combat-service-istio-mesh&versinotallow=200"
Greeting: hostname:k8s-combat-service-v2-5db566fb76-xj7j6, in:world, version:200istio-proxy@k8s-combat-service-v1-5b998dc8c8-hkb72:/$ curl "http://127.0.0.1:8081/grpc_client?name=k8s-combat-service-istio-mesh&versinotallow=200"
Greeting: hostname:k8s-combat-service-v2-5db566fb76-xj7j6, in:world, version:200istio-proxy@k8s-combat-service-v1-5b998dc8c8-hkb72:/$ curl "http://127.0.0.1:8081/grpc_client?name=k8s-combat-service-istio-mesh&versinotallow=200"
Greeting: hostname:k8s-combat-service-**v1**-5b998dc8c8-hkb72, in:world, version:200istio-proxy@k8s-combat-service-v1-5b998dc8c8-hkb72:/$ curl "http://127.0.0.1:8081/grpc_client?name=k8s-combat-service-istio-mesh&versinotallow=200"
Greeting: hostname:k8s-combat-service-v2-5db566fb76-xj7j6, in:world, version:200istio-proxy@k8s-combat-service-v1-5b998dc8c8-hkb72:/$

經過測試會發現大部分的請求都會按照我們的預期進入 v2 這個分組。

當然除之外之外我們還可以:

  • 超時時間
  • 故障注入
  • 重試 具體的配置可以參考 Istio 官方文檔:

  • 當然在一些云平臺也提供了可視化的頁面,可以更直觀的使用。

以上是 阿里云的截圖

但他們的管理的資源都偏 kubernetes,一般是由運維或者是 DevOps 來配置,不方便開發使用,所以還需要一個介于云廠商和開發者之間的管理發布平臺,可以由開發者以項目維度管理維護這些功能。

本文的所有源碼在這里可以訪問:https://github.com/crossoverJie/k8s-combat。

責任編輯:姜華 來源: crossoverJie
相關推薦

2023-11-01 08:08:22

k8s服務網格

2021-04-25 08:48:36

Traefik mes服務網格Kubernetes集

2021-06-05 10:16:55

Linkerd 服務網格Kubernetes

2020-01-31 14:12:53

云計算HPC無服務器

2022-11-24 14:21:27

微服務ISTIO

2023-06-18 19:21:04

技術架構服務網格

2020-11-15 23:48:57

服務網格微服務網絡網絡技術

2019-08-29 08:00:00

微服務架構服務網格

2021-07-21 05:23:06

Linkerd Emoji.voto服務網格

2020-01-07 09:25:02

服務網格微服務Kubernetes

2022-08-09 08:00:00

服務網格云原生工具

2022-05-16 08:00:00

服務網格架構Kuma

2023-09-26 00:59:54

零配置服務網格

2020-07-13 07:00:03

微服務服務網格架構

2021-04-02 22:00:50

服務網格微服務

2020-10-21 13:31:53

服務網格開源微服務

2024-09-27 10:05:02

2020-08-26 05:45:40

服務網格DevOps開發

2021-08-27 11:42:51

Nacos云原生阿里云

2023-09-08 08:09:12

k8sservice服務
點贊
收藏

51CTO技術棧公眾號

久久久久久五月天久久久久久久久| 黄页网站在线观看免费| 日本免费高清一区| 国产视频观看一区| 91在线色戒在线| 久久99久久99精品蜜柚传媒| 国产精品一区二区三区免费视频| 国产欧美va欧美va香蕉在| 国精产品一区一区三区有限在线| 欧美激情视频免费观看| 成人av在线网址| 国产日本欧美一区二区三区在线| 在线亚洲欧美视频| 亚洲视频777| 欧美高清视频在线播放| 奇米一区二区三区四区久久| 欧美洲成人男女午夜视频| 国产精品嫩草视频| 久久久久久亚洲精品不卡4k岛国| 国内伊人久久久久久网站视频| 国产精品久久久久久搜索| 精品福利影视| 婷婷福利视频导航| 竹内纱里奈兽皇系列在线观看| 色男人天堂综合再现| 国产91精品入口| 欧美日韩国产123区| 热99精品只有里视频精品| 99热都是精品| 免费在线观看黄色| avtt久久| 亚洲三级视频| 蜜臀久久99精品久久久画质超高清| 亚洲欧美综合国产精品一区| 国产精品www.| 成人综合婷婷国产精品久久蜜臀 | 国产精品国产a级| 日本不卡不码高清免费观看| 亚洲精品成人无限看| 综合一区在线| 亚洲人人精品| 91老师国产黑色丝袜在线| 中文字幕一区二区三区精华液| 中文字幕一区二区三| 懂色av一区二区夜夜嗨| 国产亚洲成av人在线观看导航 | 成人免费视频网| 欧美午夜欧美| 国产理论片免费观看| 成人av免费电影网站| 一区二区三区四区五区精品视频| 精品久久久久人成| 国产精品第一页在线| 伊人再见免费在线观看高清版 | 亚洲激情黄色| 国产精品88888| 激情综合色丁香一区二区| 中文字幕一区二区在线播放| 欧美一激情一区二区三区| 久久最新资源网| 久久大香伊蕉在人线观看热2| 免费拍拍拍网站| 一区二区三区性视频| 日本黄色免费在线| 久久久久亚洲| 国产精品亚洲人在线观看| 色综合久久久久久久久久久| 久久99国产综合精品女同| 国产精品视频免费一区二区三区| www日韩av| 精品伦精品一区二区三区视频| 偷拍25位美女撒尿视频在线观看| xxxxx性欧美特大| 国户精品久久久久久久久久久不卡| 99免费精品视频| 国产日韩欧美a| 亚洲激情综合网| 中日韩在线视频| 亚洲国产精品三区| aaa国产精品视频| 首页亚洲中字| 欧美视频一区在线| 天天夜碰日日摸日日澡性色av| 加勒比一区二区三区| 亚洲欧洲二区| 宅男在线一区| 亚洲专区一二三| 精品国产一区二区三区久久狼黑人 | 成人国内精品久久久久一区| 在线观看污视频| 在线毛片观看| 久久亚洲二区三区| 国产成人+综合亚洲+天堂| 日本成人a视频| 日韩高清一级| 黑人巨大精品欧美一区二区三区| 日本一区视频在线| 亚洲日韩中文字幕一区| 亚洲精品视频观看| 国产精品国产精品| 一区二区三区色| 精品一区二区三区电影| 中国成人亚色综合网站| 成人看片网站| 亚洲欧洲日产国产综合网| 成人av在线天堂| 精精国产xxxx视频在线播放| 久久一日本道色综合| 国产日韩在线精品av| av免费在线视| 国产精品久久久久影院| 久久婷婷开心| 少妇精品在线| 伊是香蕉大人久久| 日韩三区在线| 在线看日韩精品电影| www.18av.com| 91久久国产| 日韩精品免费观看| 2025韩国理伦片在线观看| 亚洲在线国产日韩欧美| 自拍偷拍亚洲区| 亚洲s色大片| 国产欧美一区二区三区在线看蜜臀| 亚洲尤物视频网| 久久伊人精品| 亚洲第一区中文字幕| 毛片毛片毛片毛片| 国产一区欧美日韩| 精品999在线观看| 日本成人7777| 亚洲欧美日韩精品久久奇米色影视| 亚洲成av人影片在线观看| 亚洲欧洲另类国产综合| 黄色免费视频大全| 成人精品毛片| 亚洲国产私拍精品国模在线观看| 亚洲最大成人在线观看| 性感少妇一区| 日韩欧美不卡在线观看视频| 久久久精品动漫| 综合久久成人| 亚洲精品理论电影| 免费一级在线观看播放网址| 不卡一区二区在线| 国产网站观看9久| 六九午夜精品视频| 亚洲美女色播| 在线免费观看日本欧美| 国产.com| 亚洲女与黑人做爰| 黄色仓库视频网站| 国产精品欧美一区喷水| 香港日本韩国三级网站| 99久久婷婷国产综合精品| 天天做天天爱天天高潮| 美女高潮久久久| 久久精品第九区免费观看 | 欧美成人bangbros| heyzo在线欧美播放| 色婷婷综合久久久久中文| 日本国产在线| 欧美日韩国产美| 超碰成人av| 在线观看久久久久久| 国产成人免费精品| 一区二区三区久久精品| 在线日韩成人| 国产亚洲精品久久久| 日韩护士脚交太爽了| 久久精品在线视频| 精品一区欧美| 欧美在线亚洲在线| 要久久爱电视剧全集完整观看| 亚洲图片欧洲图片av| 69xxx在线| 九九视频这里只有精品| 日本一区二区三区视频在线看 | 久久综合一区二区| 91原色影院| 欧美一区二区三区视频免费播放| 日本在线观看网站| 欧美一区二区三区色| 国产一二三在线| 欧美亚洲国产另类| 另类小说一区二区三区| 国产一级不卡毛片| 欧美电影一区二区| 欧美另类激情| 国产成人一区二区三区电影| 97精品视频在线看| 国产树林野战在线播放| 日韩毛片精品高清免费| 最美情侣韩剧在线播放| 精品国产免费人成电影在线观看四季| 国产综合色在线观看| 国产精品久久久久久亚洲影视| 日韩电影一区二区三区四区| 国产wwwxx| 亚洲美女一区二区三区|