国产精品电影_久久视频免费_欧美日韩国产激情_成年人视频免费在线播放_日本久久亚洲电影_久久都是精品_66av99_九色精品美女在线_蜜臀a∨国产成人精品_冲田杏梨av在线_欧美精品在线一区二区三区_麻豆mv在线看

使用Go處理每分鐘百萬請求

開發(fā) 后端
我們經(jīng)常聽說使用Go的goroutine和channel很容易實現(xiàn)高并發(fā),那是不是全部代碼都放在goroutine中運行就可以實現(xiàn)高并發(fā)程序了呢?很顯然并不是。這篇文章將教大家如何一步一步寫出一個簡單的, 高并發(fā)的Go程序。

這篇文章在medium上很火,作者以實際案例來分析,講得很好。

我們經(jīng)常聽說使用Go的goroutine和channel很容易實現(xiàn)高并發(fā),那是不是全部代碼都放在goroutine中運行就可以實現(xiàn)高并發(fā)程序了呢?很顯然并不是。這篇文章將教大家如何一步一步寫出一個簡單的, 高并發(fā)的Go程序。

正文

我在幾家不同的公司從事反垃圾郵件,防病毒和反惡意軟件的工作超過15年,現(xiàn)在我知道這些系統(tǒng)最終會因為我們要每天處理大量數(shù)據(jù)而變得越來越復(fù)雜。

目前,我是smsjunk.com的CEO和 KnowBe4的***架構(gòu)師,他們都是網(wǎng)絡(luò)安全行業(yè)的公司。

有趣的是,在過去的10年里,作為一名軟件工程師,我參與過的所有Web后端開發(fā)大部分都是使用RubyonRails完成的。不要誤會我的意思,我喜歡 RubyonRails,我相信這是一個了不起的生態(tài),但是過了一段時間,你開始以 Ruby的方式思考和設(shè)計系統(tǒng),忘了如何高效和原本可以利用多線程、并行、快速執(zhí)行和小的內(nèi)存消耗來簡化軟件架構(gòu)。多年來,我是一名C/C++,Delphi和 C#開發(fā)人員,而且我剛開始意識到如何正確的使用工具進行工作可能會有多復(fù)雜。

我對互聯(lián)網(wǎng)中那些語言和框架戰(zhàn)爭并不太感興趣,比如哪門語言更好,哪個框架更快。 我始終相信效率,生產(chǎn)力和代碼可維護性主要取決于如何簡單的構(gòu)建解決方案。

問題

在處理我們的匿名監(jiān)測和分析系統(tǒng)時,我們的目標(biāo)是能夠處理來自數(shù)百萬端點的大量POST請求。Web處理程序?qū)⑹盏揭粋€JSON文檔,該文檔可能包含需要寫入 AmazonS3的多個有效內(nèi)容的集合,以便我們的 map-reduce系統(tǒng)稍后對這些數(shù)據(jù)進行操作。

傳統(tǒng)上,我們會考慮創(chuàng)建一個工作層架構(gòu),利用諸如以下的技術(shù)棧:

  • Sidekiq
  • Resque
  • DelayedJob
  • ElasticbeanstalkWorkerTier
  • RabbitMQ
  • ...

并搭建2個不同的集群,一個用于web前端,一個用于worker,因此我們可以隨意擴容機器來處理即將到來的請求。

從一開始,我們的團隊就知道我們可以在Go中這樣做,因為在討論階段我們看到這可能是一個非常大流量的系統(tǒng)。我一直在使用Go,大約快2年時間了,而且我們也使用Go開發(fā)了一些系統(tǒng),但是沒有一個系統(tǒng)的流量能夠達到這個數(shù)量級。我們首先創(chuàng)建了幾個struct來定義我們通過POST調(diào)用接收到的Web請求,并將其上傳到S3存儲中。

 

  1. type PayloadCollection struct { 
  2.     WindowsVersion  string    `json:"version"
  3.     Token           string    `json:"token"
  4.     Payloads        []Payload `json:"data"
  5.  
  6. type Payload struct { 
  7.     // [redacted] 
  8.  
  9. func (p *Payload) UploadToS3() error { 
  10.     // the storageFolder method ensures that there are no name collision in 
  11.     // case we get same timestamp in the key name 
  12.     storage_path := fmt.Sprintf("%v/%v", p.storageFolder, time.Now().UnixNano()) 
  13.  
  14.     bucket := S3Bucket 
  15.  
  16.     b := new(bytes.Buffer) 
  17.     encodeErr := json.NewEncoder(b).Encode(payload) 
  18.     if encodeErr != nil { 
  19.         return encodeErr 
  20.     } 
  21.  
  22.     // Everything we post to the S3 bucket should be marked 'private' 
  23.     var acl = s3.Private 
  24.     var contentType = "application/octet-stream" 
  25.  
  26.     return bucket.PutReader(storage_path, b, int64(b.Len()), contentType, acl, s3.Options{}) 

Naive的做法-硬核使用Goroutine

最初,我們對POST處理程序進行了非常簡單粗暴的實現(xiàn),將每個請求直接放到新的goroutine中運行:

 

  1. func payloadHandler(w http.ResponseWriter, r *http.Request) { 
  2.  
  3.     if r.Method != "POST" { 
  4.         w.WriteHeader(http.StatusMethodNotAllowed) 
  5.         return 
  6.     } 
  7.  
  8.     // Read the body into a string for json decoding 
  9.     var content = &PayloadCollection{} 
  10.     err := json.NewDecoder(io.LimitReader(r.Body, MaxLength)).Decode(&content) 
  11.     if err != nil { 
  12.         w.Header().Set("Content-Type""application/json; charset=UTF-8"
  13.         w.WriteHeader(http.StatusBadRequest) 
  14.         return 
  15.     } 
  16.      
  17.     // Go through each payload and queue items individually to be posted to S3 
  18.     for _, payload := range content.Payloads { 
  19.         go payload.UploadToS3()   // <----- DON'T DO THIS 
  20.     } 
  21.  
  22.     w.WriteHeader(http.StatusOK) 

對于一般的并發(fā)量,這其實是可行的,但這很快就證明不能適用于高并發(fā)場景。我們可能有更多的請求,當(dāng)我們將***個版本部署到生產(chǎn)環(huán)境時,我們開始看到的數(shù)量級并不是如此,我們低估了并發(fā)量。

上述的方法有幾個問題。沒有辦法控制正在工作的goroutine的數(shù)量。而且,由于我們每分鐘有100萬個POST請求,所以系統(tǒng)很快就崩潰了。

重來

我們需要找到另一種的方法。從一開始我們就開始討論如何讓請求處理程序的生命周期盡可能的短,并在后臺產(chǎn)生處理。當(dāng)然,這是在 RubyonRails必須要做的事情,否則,不管你是使用puma,unicorn還是 passenger,你的所有的可用的web worker都將阻塞。

那么我們就需要利用常見的解決方案來完成這項工作,比如Resque,Sidekiq, SQS等。當(dāng)然還有其他工具,因為有很多方法可以實現(xiàn)。

因此,我們第二次改進是創(chuàng)建一個buffer channel,我們可以將一些作業(yè)請求扔進隊列并將它們上傳到S3,由于我們可以控制隊列的***長度,并且有足夠的RAM來排隊處理內(nèi)存中的作業(yè),因此我們認(rèn)為只要在通道隊列中緩沖作業(yè)就行了。

 

  1. var Queue chan Payload 
  2.  
  3. func init() { 
  4.     Queue = make(chan Payload, MAX_QUEUE) 
  5.  
  6. func payloadHandler(w http.ResponseWriter, r *http.Request) { 
  7.     ... 
  8.     // Go through each payload and queue items individually to be posted to S3 
  9.     for _, payload := range content.Payloads { 
  10.         Queue <- payload 
  11.     } 
  12.     ... 

然后,為了將任務(wù)從buffer channel中取出并處理它們,我們正在使用這樣的方式:

 

  1. func StartProcessor() { 
  2.     for { 
  3.         select { 
  4.         case job := <-Queue: 
  5.             job.payload.UploadToS3()  // <-- STILL NOT GOOD 
  6.         } 
  7.     } 

說實話,我不知道我們在想什么,這肯定是一個難熬的夜晚。這種方法并沒有給我們帶來什么提升,我們用一個緩沖的隊列替換了有缺陷的并發(fā),也只是推遲了問題的產(chǎn)生時間而已。我們的同步處理器每次只向S3上傳一個有效載荷,由于傳入請求的速率遠(yuǎn)遠(yuǎn)大于單個處理器上傳到S3的能力,因此我們的buffer channel迅速達到極限,隊列已經(jīng)阻塞并且無法再往里邊添加作業(yè)。

我們只是簡單的繞過了這個問題,最終導(dǎo)致我們的系統(tǒng)完全崩潰。在我們部署這個有缺陷的版本后,我們的延遲持續(xù)的升高。

使用Go處理每分鐘百萬請求

更好的解決方案

我們決定在Go channel上使用一個通用模式來創(chuàng)建一個 2-tier(雙重)channel系統(tǒng),一個用來處理排隊的job,一個用來控制有多少worker在 JobQueue上并發(fā)工作。

這個想法是將上傳到S3的并行速度提高到一個可持續(xù)的速度,同時不會造成機器癱瘓,也不會引發(fā)S3的連接錯誤。

所以我們選擇創(chuàng)建一個 Job/Worker模式。對于那些熟悉Java,C#等的人來說,可以將其視為Golang使用channel來實現(xiàn)WorkerThread-Pool的方式。

 

  1. var ( 
  2.     MaxWorker = os.Getenv("MAX_WORKERS"
  3.     MaxQueue  = os.Getenv("MAX_QUEUE"
  4.  
  5. // Job represents the job to be run 
  6. type Job struct { 
  7.     Payload Payload 
  8.  
  9. // A buffered channel that we can send work requests on
  10. var JobQueue chan Job 
  11.  
  12. // Worker represents the worker that executes the job 
  13. type Worker struct { 
  14.     WorkerPool  chan chan Job 
  15.     JobChannel  chan Job 
  16.     quit        chan bool 
  17.  
  18. func NewWorker(workerPool chan chan Job) Worker { 
  19.     return Worker{ 
  20.         WorkerPool: workerPool, 
  21.         JobChannel: make(chan Job), 
  22.         quit:       make(chan bool)} 
  23.  
  24. // Start method starts the run loop for the worker, listening for a quit channel in 
  25. // case we need to stop it 
  26. func (w Worker) Start() { 
  27.     go func() { 
  28.         for { 
  29.             // register the current worker into the worker queue. 
  30.             w.WorkerPool <- w.JobChannel 
  31.  
  32.             select { 
  33.             case job := <-w.JobChannel: 
  34.                 // we have received a work request. 
  35.                 if err := job.Payload.UploadToS3(); err != nil { 
  36.                     log.Errorf("Error uploading to S3: %s", err.Error()) 
  37.                 } 
  38.  
  39.             case <-w.quit: 
  40.                 // we have received a signal to stop 
  41.                 return 
  42.             } 
  43.         } 
  44.     }() 
  45.  
  46. // Stop signals the worker to stop listening for work requests. 
  47. func (w Worker) Stop() { 
  48.     go func() { 
  49.         w.quit <- true 
  50.     }() 

我們修改了我們的Web請求處理程序以創(chuàng)建具有有效負(fù)載的Job struct,并將其發(fā)送到 JobQueueChannel以供worker處理。

 

  1. func payloadHandler(w http.ResponseWriter, r *http.Request) { 
  2.  
  3.     if r.Method != "POST" { 
  4.         w.WriteHeader(http.StatusMethodNotAllowed) 
  5.         return 
  6.     } 
  7.  
  8.     // Read the body into a string for json decoding 
  9.     var content = &PayloadCollection{} 
  10.     err := json.NewDecoder(io.LimitReader(r.Body, MaxLength)).Decode(&content) 
  11.     if err != nil { 
  12.         w.Header().Set("Content-Type""application/json; charset=UTF-8"
  13.         w.WriteHeader(http.StatusBadRequest) 
  14.         return 
  15.     } 
  16.  
  17.     // Go through each payload and queue items individually to be posted to S3 
  18.     for _, payload := range content.Payloads { 
  19.  
  20.         // let's create a job with the payload 
  21.         work := Job{Payload: payload} 
  22.  
  23.         // Push the work onto the queue. 
  24.         JobQueue <- work 
  25.     } 
  26.  
  27.     w.WriteHeader(http.StatusOK) 

在我們的Web服務(wù)器初始化期間,我們創(chuàng)建一個Dispatcher并調(diào)用Run()來創(chuàng)建worker池并開始監(jiān)聽JobQueue中出現(xiàn)的Job。

 

  1. dispatcher := NewDispatcher(MaxWorker)  
  2. dispatcher.Run() 

以下是我們調(diào)度程序?qū)崿F(xiàn)的代碼:

 

  1. type Dispatcher struct { 
  2.     // A pool of workers channels that are registered with the dispatcher 
  3.     WorkerPool chan chan Job 
  4.  
  5. func NewDispatcher(maxWorkers int) *Dispatcher { 
  6.     pool := make(chan chan Job, maxWorkers) 
  7.     return &Dispatcher{WorkerPool: pool} 
  8.  
  9. func (d *Dispatcher) Run() { 
  10.     // starting n number of workers 
  11.     for i := 0; i < d.maxWorkers; i++ { 
  12.         worker := NewWorker(d.pool) 
  13.         worker.Start() 
  14.     } 
  15.  
  16.     go d.dispatch() 
  17.  
  18. func (d *Dispatcher) dispatch() { 
  19.     for { 
  20.         select { 
  21.         case job := <-JobQueue: 
  22.             // a job request has been received 
  23.             go func(job Job) { 
  24.                 // try to obtain a worker job channel that is available. 
  25.                 // this will block until a worker is idle 
  26.                 jobChannel := <-d.WorkerPool 
  27.  
  28.                 // dispatch the job to the worker job channel 
  29.                 jobChannel <- job 
  30.             }(job) 
  31.         } 
  32.     } 

請注意,我們實例化了***數(shù)量的worker,并將其保存到worker池中(就是上面的 WorkerPoolChannel)。由于我們已經(jīng)將Amazon Elasticbeanstalk用于Docker化的Go項目,并且我們始終嘗試遵循12要素方法來配置生產(chǎn)中的系統(tǒng),因此我們從環(huán)境變量中讀取這些值,這樣我們就可以快速調(diào)整這些值以控制工作隊列的數(shù)量和***規(guī)模,而不需要重新部署集群。

 

  1. var (  
  2.   MaxWorker = os.Getenv("MAX_WORKERS")  
  3.   MaxQueue  = os.Getenv("MAX_QUEUE")  

在我們發(fā)布了這個版本之后,我們立即看到我們的所有的請求延遲都下降到了一個很低的數(shù)字,我們處理請求的效率大大提升。

使用Go處理每分鐘百萬請求

在我們的彈性負(fù)載均衡器完全熱身之后的幾分鐘,我們看到我們的ElasticBeanstalk應(yīng)用程序每分鐘提供近100萬次請求。通常在早晨的幾個小時里,流量高峰會超過每分鐘100萬個請求。

我們部署了新的代碼,服務(wù)器的數(shù)量從100臺減少到大約20臺。

使用Go處理每分鐘百萬請求

在恰當(dāng)?shù)嘏渲昧思汉妥詣涌s放設(shè)置以后,我們在生成環(huán)境用4臺EC2 c4就能完成工作了。如果CPU在連續(xù)5分鐘內(nèi)超過90%,彈性自動縮放系統(tǒng)就自動擴容一個新的實例。

使用Go處理每分鐘百萬請求

結(jié)論

簡單總是我的制勝法寶。我們可以設(shè)計一個擁有多隊列,多后臺進程和難以部署的復(fù)雜系統(tǒng),但是相反我們決定利用Elasticbeanstalk的自動縮放和高效簡單的方式去并發(fā),Go語言很好的提供了這些功能。

經(jīng)驗告訴我們,用最合適的工具去完成工作。有時,當(dāng)你的 RubyonRails系統(tǒng)需要實現(xiàn)一個非常強大的處理程序時,可以考慮在 Ruby生態(tài)系統(tǒng)之外尋找更簡單且更強大的替代解決方案。

責(zé)任編輯:未麗燕 來源: Go語言中文網(wǎng)
相關(guān)推薦

2017-09-15 09:43:59

Go語言web請求開發(fā)

2023-10-31 07:52:10

2025-11-17 07:43:24

2025-03-13 08:33:37

RPMTPM代碼

2011-09-05 10:07:49

聯(lián)想激光打印機

2022-10-08 00:05:00

HammerDB自動化測試

2021-07-27 06:05:07

網(wǎng)絡(luò)犯罪網(wǎng)絡(luò)攻擊網(wǎng)絡(luò)威脅

2011-09-19 13:27:36

惠普激光打印機

2011-09-06 08:42:58

惠普激光打印機

2011-11-23 13:54:21

惠普激光打印機

2012-01-09 15:14:41

惠普激光打印機

2012-05-24 11:38:00

惠普激光打印機

2012-02-23 14:10:16

惠普激光打印機

2013-08-19 11:27:24

谷歌宕機損失

2012-08-07 14:33:49

打印機

2012-06-04 11:18:02

HP激光打印機

2012-04-20 14:42:45

夏普復(fù)合一體機

2010-08-26 17:39:48

谷歌

2012-08-01 10:18:47

打印機

2011-11-25 13:39:55

聯(lián)想激光打印機
點贊
收藏

51CTO技術(shù)棧公眾號

黄网站在线免费看| 日本www在线视频| 韩日成人影院| 欧美三片在线视频观看| 大肉大捧一进一出好爽动态图| 亚洲一区网站| 国产日韩综合一区二区性色av| 成人盗摄视频| 欧美激情欧美激情| 国产免费区一区二区三视频免费| 日韩黄色av网站| 免费在线观看av电影| 欧美探花视频资源| 国产爆初菊在线观看免费视频网站 | 亚洲欧美在线一区二区| 理论片午午伦夜理片在线播放| 色欧美乱欧美15图片| 一级毛片在线播放| 欧美日韩免费在线| 国产www.大片在线| 51久久夜色精品国产麻豆| 久操免费在线| 国产黄色影视| 欧美13~18sex性hd| 久久亚洲综合色| 久久99久久99精品| 精品一区二区三区的国产在线播放| 免费在线国产精品| 日韩激情在线观看| 五月婷婷一区| 国产一区三区三区| 成人短视频在线观看免费| 高清shemale亚洲人妖| 成人精品视频在线播放| 91丨九色丨蝌蚪富婆spa| 国产熟人av一二三区| 国产精品二三区| 国产精品精华液网站| 色菇凉天天综合网| 黄色片免费在线观看| 亚洲精品v欧美精品v日韩精品| 中文字幕资源网在线观看免费| 色噜噜亚洲精品中文字幕| 亚洲三级av| 国产精品美女999| 亚洲三级电影在线观看| 一区二区在线观| 国产亚洲午夜高清国产拍精品| 草草久视频在线观看电影资源| 狠狠躁18三区二区一区| 91高清在线观看视频| 日韩高清免费观看| 伊人精品久久| 99re在线播放| 久久97超碰国产精品超碰| 国产日韩成人内射视频 | 亚洲人www| 中文字幕不卡每日更新1区2区| 国产99久久久久| 大胆高清日本a视频| 91精品视频网| 国产精品视频一区二区三区综合| 国产精品国内视频| 日韩国产成人精品| 男人艹女人网站| 91精品综合久久久久久| 日韩电影精品| 亚洲free嫩bbb| 国产91色综合久久免费分享| av网站一区| 亚洲第一视频网站| 欧美美女在线| 亚洲一区二区三区免费观看| 国产精品网站一区| 4438x成人网全国最大| 久久久爽爽爽美女图片| 亚洲久久一区| 91福利电影| 亚洲国产欧美一区| 亚洲澳门在线| 最近免费中文字幕中文高清百度| 欧美丝袜丝交足nylons图片| jizz性欧美23| 热这里只有精品| 狠狠做深爱婷婷久久综合一区| 成人午夜毛片| 久久精品日产第一区二区三区精品版 | 久久精品午夜一区二区福利| 26uuu国产电影一区二区| 国产特黄在线| 精品少妇v888av| 亚洲第一毛片| 伊人精彩视频| 欧美www在线| 老司机精品视频在线| 国内在线精品| 国产精品国内视频| 国产精品你懂的| 成人午夜sm精品久久久久久久| 日韩精品久久一区| 日本福利一区二区| 欧美电影免费播放| av网站免费观看| 欧美成人激情在线| 久草这里只有精品视频| 国产福利片在线| 国产精品夜间视频香蕉| 国产女主播一区| 国产黄色精品| 欧美一级爱爱视频| 日韩www在线| 久久精品国产久精国产爱| 日本电影全部在线观看网站视频| 国产一区二区色| 亚洲不卡av一区二区三区| 亚洲成人一品| 成人18网址在线观看| 美女福利精品视频| 91尤物视频在线观看| 久久天天久久| 国产成人无码精品久久久性色| 亚洲人成在线观看网站高清| 麻豆精品久久精品色综合| 欧美videosex性欧美黑吊| 麻豆av一区二区三区| 欧美日韩成人激情| 国产精品普通话对白| 黄色av电影在线播放| 欧日韩一区二区三区| 日韩欧美一区在线| 蜜臀av一区二区在线免费观看 | 日韩精品成人一区二区在线观看| 黑人极品videos精品欧美裸| 日本高清免费电影一区| 亚洲精品第一国产综合野草社区| 青草成人免费视频| 午夜国产不卡在线观看视频| 久久精品一区二区不卡| jyzzz在线观看视频| 日本在线观看一区| 日韩电影中文字幕| 91丨porny丨户外露出| 国产成人精品福利| 日本调教视频在线观看| 成人久久一区二区三区| 欧美性受xxxx黑人xyx| 一本色道久久综合一区| 丁香花在线高清完整版视频| 国产盗摄视频在线观看| 久久福利视频导航| 亚洲免费av高清| 欧美在线日韩| 99re6在线精品视频免费播放| 看一级黄色录像| 久久99久国产精品黄毛片入口| 亚洲人成网站影音先锋播放| 亚洲精品中文字幕乱码| 国产在线观看91| 精品国产一区二区三区在线| 最新69国产成人精品视频免费| 国产精品丝袜久久久久久app| 日韩电影二区| 波多野结衣在线高清| 久久久久免费精品| 91性高湖久久久久久久久_久久99| 7799精品视频| www国产成人免费观看视频 深夜成人网| 日韩有码av| 四虎亚洲精品| 成人18网站| 日本视频一区二区不卡| 久久精品久久久久电影| 亚洲一区二区三区视频在线播放| 在线精品福利| 欧美专区一区| 1769视频在线播放免费观看| 丁香婷婷综合激情| 国产精品直播网红| 亚洲日韩中文字幕| 欧美日韩一区二区在线播放| 国产一区二区三区观看| 神马影视一区二区| 亚洲风情在线资源| 九色porny在线观看| 路边理发店露脸熟妇泻火| 日本精品性网站在线观看| 91麻豆精品91久久久久久清纯| 久久久无码精品亚洲日韩按摩| 黄色成人在线网址| 一本一道久久a久久| 国产二区三区在线| 高清成人av| 亚洲激情电影在线| 国产精品对白刺激| 日韩在线观看网址| 7777精品伊人久久久大香线蕉| 欧美国产丝袜视频| 免费观看成人av| 久久精品99久久无色码中文字幕| 亚洲精品永久免费视频|