国产精品电影_久久视频免费_欧美日韩国产激情_成年人视频免费在线播放_日本久久亚洲电影_久久都是精品_66av99_九色精品美女在线_蜜臀a∨国产成人精品_冲田杏梨av在线_欧美精品在线一区二区三区_麻豆mv在线看

Mamba再次挑戰(zhàn)霸主Transformer!首個通用Mamba開源大模型一鳴驚人

人工智能
TII開源全球第一個通用的大型Mamba架構模型Falcon Mamba 7B,性能與Transformer架構模型相媲美,在多個基準測試上的均分超過了Llama 3.1 8B和Mistral 7B。

今天,阿布扎比支持的技術創(chuàng)新研究所(TII) 開源了全球第一個通用的大型Mamba架構模型——Falcon Mamba 7B。

雖然之前Mistral已經發(fā)過Mamba架構的Codestral Mamba模型,但僅針對編碼;Falcon Mamba則是通用模型,能夠處理各種文本生成任務。

它是繼Falcon 180B、Falcon 40B和Falcon 2之后TII的第四個開放模型,與Falcon系列之前的型號不同,F(xiàn)alcon Mamba 7B完全采用SSLM架構而不是傳統(tǒng)的Transformer架構。

圖片圖片

Mamba架構橫空出世后,體現(xiàn)出了內存效率方面的顯著優(yōu)勢,無需額外的內存需求即可生成大量文本。

如今,SSLM正在逐漸蠶食Transformer架構原本「大一統(tǒng)」的地位。

測評數(shù)據(jù)顯示,F(xiàn)alcon Mamba 7B性能已經超越同尺寸級別的領先模型,例如Meta最新開源模型Llama 3.1 8B和Mistral 7B。

Falcon Mamba 7B將根據(jù)TII Falcon License 2.0發(fā)布,這是一個基于Apache 2.0的許可證,其中包括促進負責任地使用人工智能的使用政策。

Falcon Mamba 7B有什么特別之處?

雖然Transformer模型仍然主導著AI大模型領域,但研究人員指出,該架構在處理較長文本時可能會遇到困難。

Transformer的自注意力機制(Self-Attention)讓模型可以關注輸入序列中的所有位置,并為每個位置分配不同的注意力權重。

這使得模型能夠更好地處理長距離的依賴關系,也就是說,對于句子中距離較遠的單詞,模型也能有效地捕獲其關系。

這種通過比較文本中每個token來理解上下文的方式,需要更多的計算能力和內存來處理不斷增長的上下文窗口。

如果資源沒有相應擴展,推理速度會變慢,最終無法處理超過某個固定長度的文本。

為了解決這些難題,狀態(tài)空間語言模型(SSLM)架構應運而生,該架構通過在處理單詞時持續(xù)更新「狀態(tài)」,已成為一種有前途的替代方案。它已經被一些組織部署,TII是最新的采用者。

這個全新的Falcon模型正是使用了CMU和普林斯頓大學的研究人員在2023年12月的一篇論文中最初提出的Mamba SSM架構。

圖片圖片

論文地址:https://arxiv.org/pdf/2312.00752

該架構使用選擇機制,使模型能夠根據(jù)輸入動態(tài)調整其參數(shù)。

通過這種方式,模型可以專注于或忽略特定輸入,類似于Transformer中的注意力機制,但同時具備處理長文本序列(如整本書)的能力,而無需額外的內存或計算資源。

TII指出,這種方法使模型適用于企業(yè)級機器翻譯、文本摘要、計算機視覺、音頻處理以及估計和預測等任務。

首個通用大規(guī)模Mamba模型

上面提到,基于注意力機制的Transformer是當今所有最強大語言模型中占主導地位的架構。然而,由于計算和內存成本隨著序列長度的增加而增加,注意力機制在處理長序列時存在根本限制。

各種替代架構,特別是SSLM,試圖解決序列擴展限制,但性能不及最先進的Transformer。

Falcon Mamba模型在不損失性能的前提下,可以突破序列擴展限制。

Falcon Mamba基于去年12月提出的第一版Mamba架構,增加了RMS歸一化層以確保在大規(guī)模訓練中保持穩(wěn)定性。

這種架構選擇確保了Falcon Mamba模型:

- 可以在不增加任何內存存儲的情況下處理任意長度的序列,特別是可以在單張A10 24GB GPU上運行;

- 無論上下文大小,生成新token所需的時間恒定。

模型訓練

Falcon Mamba使用約5500GT(相當于5.5B token)的數(shù)據(jù)進行訓練,主要由RefinedWeb數(shù)據(jù)組成,并添加了公共來源的高質量技術數(shù)據(jù)和代碼數(shù)據(jù)。

在大部分訓練中使用了恒定的學習率,隨后進行了一個較短的學習率衰減階段。

在最后階段,還加入了一小部分高質量的精選數(shù)據(jù),以進一步提升模型性能。

性能評估

使用lm-evaluation-harness包對新排行榜版本的所有基準測試進行模型評估,然后使用HuggingFace分數(shù)歸一化處理評估結果。

如下圖所示,F(xiàn)alcon Mamba 7B獲得15.04的均分,超過Llama 3.1 8B 13.41分和Mistral 7B 14.50分。

圖片圖片

此外,還使用了lighteval對大語言模型排行榜第一版的基準測試進行評估。

可以看到,F(xiàn)alcon Mamba 7B僅次于Transformer架構的Falcon 2 11B,分數(shù)仍然超過Gemma、Llama、Mistral等同等規(guī)模的知名模型。

圖片

處理大規(guī)模序列

理論上來說,SSM模型在處理大規(guī)模序列時具有效率優(yōu)勢。

為了驗證模型的大規(guī)模序列處理能力,使用optimum-benchmark庫,對Falcon Mamba和流行的Transformer模型在內存使用和生成吞吐量方面進行了比較。

為了公平比較,將所有Transformer模型的詞匯大小調整為與Falcon Mamba一致,因為這對模型的內存需求有很大影響。

在查看結果之前,先討論序列中提示詞(預填充)和生成(解碼)部分的區(qū)別。

預填充的細節(jié)對于SSM而言,比對于Transformer模型更為重要。

當Transformer生成下一個token時,它需要關注上下文中所有先前token的鍵和值,這意味著內存需求和生成時間都會隨著上下文長度線性增長。

而SSM僅關注并存儲其遞歸狀態(tài),因此在生成大規(guī)模序列時不需要額外的內存或時間。

圖片圖片

雖然這解釋了SSM在解碼階段相對于Transformer的優(yōu)勢,但在預填充階段需要使用新方法來充分利用SSM架構。

預填充的標準方法是并行處理整個提示詞以充分利用GPU。這種方法在optimum-benchmark庫中使用,我們稱之為并行預填充。

并行預填充需要將提示詞每個token的隱藏狀態(tài)存儲在內存中。對于Transformer,這額外的內存主要由存儲的KV緩存占據(jù)。

對于SSM模型,不需要緩存,存儲隱藏狀態(tài)的內存成為唯一與提示詞長度成比例的部分。

因此,內存需求將隨提示詞長度增長,SSM模型將失去處理任意長序列的能力,類似于Transformer。

并行預填充的替代方法是逐個處理token提示詞,我們稱之為順序預填充。

類似于序列并行處理,它也可以大規(guī)模地處理提示詞,而不是單個token,以更好地利用GPU。

雖然順序預填充對Transformer意義不大,但它為SSM模型帶來了處理任意長提示詞的可能性。

考慮到這些觀點,實驗首先測試了可以在單個24GB A10 GPU上適應的最大序列長度。

其中,批大小固定為1,使用float32精度。

即使在并行預填充中,F(xiàn)alcon Mamba也能適應比Transformer更大的序列,而在順序預填充中發(fā)揮了全部潛力,可以處理任意長度的提示詞。

圖片圖片

接下來,在提示詞長度為1,生成token數(shù)量最多為130k的情況下測量生成吞吐量,使用批大小為1,并在H100 GPU上進行。

結果如圖所示。可以觀察到,F(xiàn)alcon Mamba在生成所有token時保持恒定的吞吐量,且GPU峰值內存沒有增加。

而對于Transformer模型,隨著生成token數(shù)量的增加,峰值內存增加,生成速度變慢。

圖片圖片

如何使用?

Falcon Mamba架構將在HuggingFace transformers庫的下一個版本(4.45.0以上)中提供。

使用Falcon Mamba 7B模型,需要安裝最新版本的HuggingFace transformers,或從源代碼安裝庫。

Falcon Mamba與HuggingFace提供的大多數(shù)API兼容,這些API已經比較熟悉,例如:

from transformers import AutoModelForCausalLM, AutoTokenizer

model_id = "tiiuae/falcon-mamba-7b" 
tokenizer = AutoTokenizer.from_pretrained(model_id)

model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype="auto", device_map="auto")
inputs = tokenizer("Hello world, today", return_tensors="pt").to(0)

output = model.generate(**inputs, max_new_tokens=100, do_sample=True)
print(tokenizer.decode(Output[0], skip_special_tokens=True))

它還支持例如bitsandbytes庫量化這樣的功能,以便在GPU內存較小的情況下運行模型,例如:

此外,還推出了Falcon Mamba的指令微調版本,該版本經過額外50億個token的監(jiān)督微調(SFT),這種擴展訓練提高了模型在執(zhí)行指令任務時的精確性和有效性。

from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig

model_id = "tiiuae/falcon-mamba-7b" 
tokenizer = AutoTokenizer.from_pretrained(model_id)

quantization_config = BitsAndBytesConfig(load_in_4bit=True)
model = AutoModelForCausalLM.from_pretrained(model_id, quantization_cnotallow=quantization_config)

inputs = tokenizer("Hello world, today", return_tensors="pt").to(0)
output = model.generate(**inputs, max_new_tokens=100, do_sample=True)

print(tokenizer.decode(output[0], skip_special_tokens=True))

可以通過演示體驗該指令模型的功能,對于聊天模板,可以使用以下格式:

<|im_start|>user
prompt<|im_end|>
<|im_start|>assistant

用戶還可以直接使用基礎模型和指令模型的4-bit轉換版本,但要保證GPU與bitsandbytes庫兼容,才能運行量化模型。

用戶還可以通過torch.compile獲得更快的推理速度,加載模型后,只需調用model = torch.compile(model)。

參考資料:

https://huggingface.co/blog/falconmamba

https://venturebeat.com/ai/falcon-mamba-7bs-powerful-new-ai-architecture-offers-alternative-to-transformer-models/

https://medium.com/@puneetthegde22/mamba-architecture-a-leap-forward-in-sequence-modeling-370dfcbfe44a

責任編輯:武曉燕 來源: 新智元
相關推薦

2025-09-01 14:22:03

AI開源模型

2011-05-04 13:58:56

奔圖激光打印機

2025-03-11 09:42:00

2024-09-23 08:20:00

模型訓練

2024-08-13 13:30:00

2024-06-04 14:06:00

2024-08-19 13:21:14

2024-05-13 10:38:08

2025-02-06 10:21:51

2025-10-22 08:41:22

2021-06-03 07:55:12

技術

2019-06-11 18:35:18

戴爾

2011-05-26 13:46:09

2025-07-14 08:50:00

語言模型AI論文

2025-07-10 08:55:00

模型AI論文

2024-07-15 08:20:00

2015-12-22 17:48:59

2023-12-21 12:58:42

Mamba模型架構

2023-12-25 15:11:16

AI模型

2024-03-11 12:20:56

AI訓練
點贊
收藏

51CTO技術棧公眾號

午夜精品久久| 欧洲成人免费aa| 欧美与动交zoz0z| 中文在线不卡| 91原创国产| 成人香蕉社区| 亚洲一区二区三区四区在线免费观看| 熟妇熟女乱妇乱女网站| 99精品视频在线| 国产精品久久久久久久7电影| 日本国产亚洲| 精品国产欧美一区二区五十路| 亚洲永久精品免费| 一区二区三区中文字幕| 男人天堂成人在线| 蜜臀av国产精品久久久久| 欧美亚洲国产另类| 日韩精品一区二区三区中文| 欧美日韩不卡一区| 久久久久久国产精品免费无遮挡| 久久综合影视| 国产麻豆乱码精品一区二区三区 | 亚洲高清一区二区三区| 男男做性免费视频网| 日韩成人免费看| 高清国语自产拍免费一区二区三区| 欧美私人啪啪vps| 99久精品国产| 久久综合婷婷综合| a91a精品视频在线观看| 久久艹中文字幕| 国产精品一级黄| 九热视频在线观看| av网站一区二区三区| 久久.com| 国产精品久久久久9999吃药| 久久小说免费下载| 欧美系列在线观看| 日韩久久一区二区三区| 久久久国产视频| 日韩黄色大片网站| 欧美精品一区二区三区在线看午夜| 第一会所亚洲原创| 国产私拍一区| 国产欧美日韩一区二区三区在线| 精品一区二区三区日本| 欧美国产一区二区在线观看| 久草亚洲一区| 欧美一区午夜精品| 成人日韩视频| av成人午夜| 99久久精品免费精品国产| www.涩涩涩| 在线播放日韩导航| 精品九九久久| 国产精品推荐精品| 国产91综合一区在线观看| 1区不卡电影| 在线精品播放av| 伊人久久久大香线蕉综合直播| 国内自拍中文字幕| 一本色道综合亚洲| 日韩在线黄色| 亚洲高清乱码| 五月激情六月综合| 大型av综合网站| 一区精品在线| 色婷婷av久久久久久久| 精品久久久久久国产91| 91av视频在线免费观看| 亚洲伦伦在线| 性网站在线看| 久久高清视频免费| 亚洲一区二区免费看| 国产偷人视频免费| 精品国产制服丝袜高跟| 欧美日韩一视频区二区| 自拍偷拍 国产| 一区二区亚洲精品国产| 日韩精品一二区| 暖暖视频在线免费观看| 97色在线观看| 成人一区二区三区视频在线观看| 国产网站在线| 日本精品视频一区| 一二三区精品视频| 亚洲91久久| av在线三区| 3d精品h动漫啪啪一区二区| 亚洲欧美区自拍先锋| 日本高清久久| 狠狠干夜夜操| 国产日韩欧美黄色| 色噜噜狠狠色综合欧洲selulu| 91精品啪在线观看国产18| 中文字幕在线播放| 中文字幕在线乱| 一区二区日韩精品| 成人不卡免费av| 成人在线视频你懂的| 一级网站免费观看| 不卡视频一区二区三区| 欧美日本一区二区在线观看| 免费的国产精品| 黑人精品一区| 国产a国产a国产a| 91免费在线视频| 欧美日韩国产精品成人| 国产不卡高清在线观看视频| 国产精品丝袜在线播放| av电影在线网| 欧美亚洲国产成人| 国产精品xxx视频| 精品久久久久久最新网址| 久久精品视频免费| 国产精品v日韩精品v欧美精品网站| 黄色在线观看网站| 999日本视频| 秋霞av国产精品一区| 久久99蜜桃综合影院免费观看| 欧美一级在线视频| 久久精品一级爱片| 久久免费国产| 国产欧美啪啪| 美女尤物在线视频| 日本视频一二三区中文字幕| 日本一区二区三区在线观看| 欧美视频导航| 成人羞羞网站入口| xxxx日韩| 欧美大片黄色| 在线观看午夜av| 亚洲热app| 国产三级视频| 成人狠狠色综合| 久久男人资源站| 在线视频91| 亚洲高清在线播放| 91国产在线免费观看| 欧美激情性做爰免费视频| 亚洲精品中文字| 日韩精品在线网站| 欧美午夜视频一区二区| 亚洲免费观看高清完整版在线观看熊| 成人涩涩免费视频| 麻豆精品在线观看| 国产一区二区在线观看免费| 另类人妖一区二区av| 日日噜噜夜夜狠狠视频欧美人| 牛夜精品久久久久久久99黑人| 欧美精品1区| 精品自拍偷拍| 美女毛片一区二区三区四区| 日韩欧美精品在线不卡| 成人一区而且| 中文国产成人精品| 日韩视频在线免费| 91精品一区二区三区四区| 毛片免费在线观看| 天堂va在线高清一区| 国产精品15p| 久久午夜影院| 国产精品啊啊啊| 国产精品一品二品| 欧美精品一区二区三区蜜桃| 欧美乱妇40p| av无码久久久久久不卡网站| 英国三级经典在线观看| 亚洲激情自拍| 欧美一区二区三区四区久久| 美女视频黄免费的亚洲男人天堂| 久久精品日产第一区二区三区乱码| 国产午夜福利视频在线观看| 国产精品天堂| 国产中文精品久高清在线不| 国产一区二区网址| 一区二区三区在线免费视频 | www日韩视频| 999久久精品| 午夜私人影院久久久久| 中文字幕亚洲欧美日韩在线不卡 | 一级视频在线免费观看| 青草综合视频| 99精品热视频| 欧美视频裸体精品| 亚洲精品一区久久久久久| 亚洲欧美综合v| 欧美区二区三区| 国产伦理一区二区三区| 最新中文字幕av专区| 激情自拍一区| 国产不卡精品视男人的天堂| 9国产精品午夜| 亚洲视屏在线播放| 免费男女羞羞的视频网站中文版 | 玩弄中年熟妇正在播放| 四虎精品在永久在线观看| 国产黄在线看| 国产精品白丝av嫩草影院| 久久久久久久久免费|