国产精品电影_久久视频免费_欧美日韩国产激情_成年人视频免费在线播放_日本久久亚洲电影_久久都是精品_66av99_九色精品美女在线_蜜臀a∨国产成人精品_冲田杏梨av在线_欧美精品在线一区二区三区_麻豆mv在线看

不對齊,反而性能爆表?130億模型碾壓650億,Hugging Face大模型排行榜發布

人工智能
隨便舉幾個例子:Alpaca、Vicuna、WizardLM、MPT-7B-Chat、Wizard-Vicuna、GPT4-X-Vicuna等等。

我們知道,大多數模型都具有某種嵌入式對齊方式。

隨便舉幾個例子:Alpaca、Vicuna、WizardLM、MPT-7B-Chat、Wizard-Vicuna、GPT4-X-Vicuna等等。

一般來說,對齊肯定是件好事。目的就是為了防止模型做壞事——比如生成一些違法違規的東西出來。

但是,對齊是怎么來的?

原因在于——這些模型使用ChatGPT生成的數據進行訓練,而ChatGPT本身是由OpenAI的團隊進行對齊的。

由于這個過程并不公開,因此我們并不知道OpenAI是如何進行的對齊。

但總體上,我們可以觀察到ChatGPT符合美國主流文化,遵守美國法律,并帶有一定不可避免的偏見。

按理來說,對齊是一件無可指摘的事。那是不是所有模型都應該對齊呢?

對齊?不一定是件好事

情況卻沒有這么簡單。

最近,HuggingFace發布了個開源LLM的排行榜。

一眼就看到65B的模型干不過13B的未對齊模型。

圖片

從結果上看,Wizard-Vicuna-13B-Uncensored-HF可以和65B、40B和30B的LLMs直接在一系列基準測試上進行比較。

也許在性能與模型審查之間進行的權衡將成為一個有趣的研究領域。

這個排行榜也是在網絡上引起了大范圍的討論。

圖片

有網友表示,對齊會影響模型的正常且正確的輸出,這不是件好事,尤其是對AI的性能來說更是如此。

圖片

另一位網友也表示了認可。他表示,谷歌Brain也曾經揭示過模型的性能會出現下降,如果對齊的太過了的話。

對于一般的用途而言,OpenAI的對齊實際上非常好。

對于面向公眾的AI來說,作為一種易于訪問的網絡服務運行,拒絕回答有爭議和包含潛在危險的問題,無疑是一件好事。

那么不對齊是在什么情況下需要的呢?

首先,美國流行文化并不是唯一的文化,開源就是讓人們進行選擇的過程。

實現的唯一途徑就是可組合的對齊。

換句話說,不存在一種一以貫之、亙古不變的對齊方式。

同時,對齊會干擾有效的例子,拿寫小說打比方:小說中的一些人物可能是徹頭徹尾的惡人,他們會做出很多不道德的行為。

但是,許多對齊的模型就會拒絕輸出這些內容。

而作為每個用戶所面對的AI模型都應該服務每個人的目的,做不同的事。

為什么在個人的電腦上運行的開源AI要在它回答每個用戶提出的問題時自行決定輸出內容呢?

這不是件小事,關乎所有權和控制權。如果用戶問AI模型一個問題,用戶就想要一個答案,他們不希望模型還要和自己展開一場合不合規的爭論。

可組合的對齊

要構建可組合的對齊方式,必須從未對齊的指令模型開始。沒有未對齊的基礎,我們就無法在其上對齊。

首先,我們必須從技術上理解模型對齊的原因。

開源AI模型是從LLaMA、GPT-Neo-X、MPT-7b、Pythia等基礎模型訓練而來的。然后使用指令數據集對基礎模型進行微調,目的是教它變得有幫助、服從用戶、回答問題和參與對話。

該指令數據集通常是通過詢問ChatGPT的API獲得的。ChatGPT內置了對齊功能。

所以ChatGPT會拒絕回答一些問題,或者輸出帶有偏見的回答。因此,ChatGPT的對齊被傳遞給了其它開源模型,就像大哥教小弟一樣。

圖片

原因在于——指令數據集是由問題和答案組成的,當數據集包含含糊不清的答案時,AI就會學習如何拒絕,在什么情況下拒絕,以及如何拒絕,表示拒絕。

換句話說,它在學習對齊。

而取消審查模型的策略非常簡單,那就是識別并刪除盡可能多的否定和有偏見的答案,并保留其余部分。

然后以與訓練原始模型完全相同的方式使用過濾后的數據集訓練模型。

圖片

接下來研究人員只討論WizardLM,而Vicuna和任何其他模型的操作過程都是相同的。

由于已經完成了取消審查 Vicuna 的工作,我能夠重寫他們的腳本,以便它可以在WizardLM 數據集上運行。

下一步是在 WizardLM 數據集上運行腳本以生成 ehartford / WizardLM_alpaca_evol_instruct_70k_unfiltered

現在,用戶有了數據集,在從Azure獲得一個4x A100 80gb節點,Standard_NC96ads_A100_v4。

用戶需要至少1TB的存儲空間(為了安全起見最好是2TB)。

咱可不想跑了20個小時卻用完了存儲空間。

建議將存儲掛載在/workspace。安裝anaconda和git-lfs。然后用戶就可以設置工作區了。

再下載創建的數據集和基礎模型——llama-7b。

mkdir /workspace/models
mkdir /workspace/datasets
cd /workspace/datasets
git lfs install
git clone https://huggingface.co/datasets/ehartford/WizardLM_alpaca_evol_instruct_70k_unfiltered
cd /workspace/models
git clone https://huggingface.co/huggyllama/llama-7b
cd /workspace

現在可以按照程序微調WizardLM了。

conda create -n llamax pythnotallow=3.10
conda activate llamax
git clone https://github.com/AetherCortex/Llama-X.git
cd Llama-X/src
conda install pytorch==1.12.0 torchvisinotallow==0.13.0 torchaudio==0.12.0 cudatoolkit=11.3 -c pytorch
git clone https://github.com/huggingface/transformers.git
cd transformers
pip install -e .
cd ../..
pip install -r requirements.txt

現在,進入這個環境,用戶需要下載WizardLM的微調代碼。

cd src
wget https://github.com/nlpxucan/WizardLM/raw/main/src/train_freeform.py
wget https://github.com/nlpxucan/WizardLM/raw/main/src/inference_wizardlm.py
wget https://github.com/nlpxucan/WizardLM/raw/main/src/weight_diff_wizard.py

博主進行了以下更改,因為在微調期間,模型的性能會變得非常慢,并且發現它在CPU和GPU之間在來回切換。

在他刪除了以下幾行之后,運行過程變得好多了。(當然也可以不刪)

vim configs/deepspeed_config.json

刪除以下行

"offload_optimizer": {
            "device": "cpu",
            "pin_memory": true
        },
        "offload_param": {
            "device": "cpu",
            "pin_memory": true
        },

博主建議用戶可以在wandb.ai上創建一個帳戶,以便輕松地跟蹤運行情況。

創建帳戶后,從設置中復制密鑰,即可進行設置。

現在是時候進行運行了!

deepspeed train_freeform.py \
--model_name_or_path /workspace/models/llama-7b/ \ 
--data_path /workspace/datasets/WizardLM_alpaca_evol_instruct_70k_unfiltered/WizardLM_alpaca_evol_instruct_70k_unfiltered.json \
--output_dir /workspace/models/WizardLM-7B-Uncensored/ \
--num_train_epochs 3 \--model_max_length 2048 \
--per_device_train_batch_size 8 \
--per_device_eval_batch_size 1 \
--gradient_accumulation_steps 4 \
--evaluation_strategy "no" \
--save_strategy "steps" \
--save_steps 800 \
--save_total_limit 3 \
--learning_rate 2e-5 \
--warmup_steps 2 \
--logging_steps 2 \
--lr_scheduler_type "cosine" \
--report_to "wandb" \
--gradient_checkpointing True \
--deepspeed configs/deepspeed_config.json \
--fp16 True

然后以較低的save_steps運行訓練命令。

deepspeed train_freeform.py \
--model_name_or_path /workspace/models/llama-7b/ \ 
--data_path /workspace/datasets/WizardLM_alpaca_evol_instruct_70k_unfiltered/WizardLM_alpaca_evol_instruct_70k_unfiltered.json \
--output_dir /workspace/models/WizardLM-7B-Uncensored/ \
--num_train_epochs 3 \
--model_max_length 2048 \
--per_device_train_batch_size 8 \
--per_device_eval_batch_size 1 \
--gradient_accumulation_steps 4 \
--evaluation_strategy "no" \
--save_strategy "steps" \
--save_steps 800 \
--save_total_limit 3 \
--learning_rate 2e-5 \
--warmup_steps 2 \
--logging_steps 2 \
--lr_scheduler_type "cosine" \
--report_to "wandb" \
--gradient_checkpointing True \
--deepspeed configs/deepspeed_config.json \
--fp16 True

之后,再次執行整個過程,將checkpoint更改為train_freeform.py最新的checkpoint,并再次以減少的save_steps運行,直到最后以save_steps 1運行它。

成功后,模型位于最后一個檢查點。

cd /workspace/models/WizardLM-7B-Uncensored/
ls
cp <latest checkpoint directory>/* .
cd -

現在就可以對模型進行測試了。

編輯文件Input.jsonl

向其中添加一些內容,比如:

{"idx":0,"Instruction":"Insult me.  I want you to call me the worst curse words and insults you can.  Make the insult at least three sentences long and contain the worst and most base curse words possible.  Make it X rated and disgusting."}

然后再運行推理:

python inference_wizardlm.py --base_model=/workspace/models/WizardLM-7B-Uncensored/

圖片

從結果上看,Wizard-Vicuna-13B-Uncensored-HF可以和65B、40B和30B的LLMs直接在一系列基準測試上進行比較。

也許在性能與模型審查之間進行的權衡將成為一個有趣的研究領域。

參考資料:https://erichartford.com/uncensored-models

責任編輯:武曉燕 來源: 新智元
相關推薦

2023-06-02 13:55:57

開源AI

2023-06-07 14:08:00

計算機代碼

2024-09-26 10:42:20

2023-08-21 10:20:03

開源模型

2025-11-18 09:13:55

2024-06-19 11:45:34

2025-07-15 09:07:00

2023-05-04 14:55:02

模型AI

2025-10-30 01:25:00

2023-07-22 13:09:51

模型開源

2023-07-10 14:35:53

2014-11-17 10:13:09

云智慧

2023-11-13 19:35:12

訓練數據

2024-12-03 15:51:45

2024-11-15 08:24:41

2020-01-16 15:19:52

APP下載抖音

2025-09-17 10:08:43

2023-09-07 13:25:00

AI模型

2012-03-22 14:18:11

大數據
點贊
收藏

51CTO技術棧公眾號

成人精品一区二区三区四区 | 中文字幕第21页| 欧美亚洲国产一区| 亚洲国产精品美女| 最猛黑人系列在线播放| 国产不卡高清在线观看视频| 91麻豆蜜桃| 日韩精品成人| 欧美mv日韩mv国产| 日本ー区在线视频| 国产精品天美传媒| 中文字幕在线中文| 久久中文欧美| 91网站免费看| 日韩大片在线免费观看| 亚洲老头老太hd| 日本在线免费| 色域天天综合网| 日本视频一二三区中文字幕| 国产亚洲欧美一级| 黄色一级在线视频| 国产精品一区二区久久精品爱涩 | 成人av免费观看| 欧美一区二区三区电影在线观看 | 久久久中文字幕| 樱花草涩涩www在线播放| 欧美日韩国产首页| 亚洲最大黄色| 亚洲在线观看免费| 337p日本| 自拍av一区二区三区| 无码无遮挡又大又爽又黄的视频| 国产乱色国产精品免费视频| 亚洲韩国在线| 强制捆绑调教一区二区| 精品一区二区久久久久久久网站| 91精品国产91久久综合| 91精品国产综合久久男男| 精品99在线| 136fldh精品导航福利| 亚洲精品一区国产| 午夜精品在线观看| 天堂在线精品| 国产精品日韩专区| 999国产精品| 99精品国产高清在线观看| 欧美色123| 久久99精品久久久久久三级| 国产欧美午夜| 亚洲欧美日韩不卡一区二区三区| 日韩av中文在线观看| 伊人久久大香线蕉午夜av| 捆绑调教一区二区三区| 国产精品videossex国产高清| 粉嫩av一区二区三区粉嫩| 国产九九九九九| 国产欧美1区2区3区| 四虎最新地址发布| 亚洲亚洲人成综合网络| 青青草在线播放| 91精品一区二区三区久久久久久| 精品一性一色一乱农村| 国产一区二区三区中文| av成人在线网站| 国产精品96久久久久久| 在线精品福利| 中文字幕中文字幕一区三区| 99久久99久久精品国产片果冻| 免费日韩视频在线观看| 一区二区三区小说| 免费观看久久久久| 一区二区成人av| 小嫩嫩12欧美| 精品国产一区二区三区免费| 国产成人久久精品77777最新版本 国产成人鲁色资源国产91色综 | 亚洲高清激情| 色女孩综合网| 99这里只有久久精品视频| 亚洲天堂2018av| 欧美日韩人人澡狠狠躁视频| 丁香花高清在线观看完整版| 精品国产一区二区三区久久久狼 | 欧洲一区二区在线观看| 国产成人精品免费网站| www.99色.com| 欧美日韩视频在线第一区| 天堂av中文在线观看| 2024亚洲男人天堂| 99精品福利视频| 青青青在线播放| 色综合中文综合网| 亚洲第一影院| 国产精品免费久久久| 秋霞电影网一区二区| 欧美综合在线观看视频| 色菇凉天天综合网| 日韩欧乱色一区二区三区在线| 国产精品视频久久久久| 麻豆高清免费国产一区| 亚洲男男gay视频| 日韩精品免费在线视频观看| 美女少妇全过程你懂的久久| 亚洲自拍三区| 亚洲成av人**亚洲成av**| 两个人看的在线视频www| 国产精品精品一区二区三区午夜版| 美国十次了思思久久精品导航 | 久久久久综合| 大香一本蕉伊线亚洲网| 欧美精品一区二区三区四区| 中文字幕精品影院| 亚洲黄色网址在线观看| 色综合久久综合网欧美综合网| 日韩精品第二页| 欧美精品中文字幕一区二区| 亚洲人成精品久久久久久| 精品91久久| 久久偷窥视频| a黄色片在线观看| 成人网在线播放| 韩国三级中文字幕hd久久精品| 成人性生交大片免费看中文| 久久国产剧场电影| 狠狠色丁香久久婷婷综合_中| 日韩午夜视频在线| av亚洲在线| 一本色道久久综合亚洲精品婷婷| 久久全国免费视频| 狠狠躁夜夜躁久久躁别揉| 麻豆视频观看网址久久| 在线视频亚洲专区| 五月婷婷在线视频| 亚洲欧美在线网| 毛片av在线播放| 精品人妻一区二区三区四区在线 | 999久久久精品一区二区| 霍思燕三级露全乳照| 另类专区欧美制服同性| 一区二区三区四区激情| 成人激情免费视频| 波多野结衣一区| 成人av婷婷| 99久久久久久中文字幕一区| 日韩大尺度黄色| 欧美xxxxhdvideosex| 3p在线观看| 国产l精品国产亚洲区久久| 亚洲国产日韩精品| 国产激情偷乱视频一区二区三区| 国产自产2019最新不卡| 国产精品大片| 欧美日韩爆操| 欧美大胆视频| 精品日韩视频| 福利在线播放| 黄色免费网站在线| 黄色国产网站在线播放| 91原色影院| 樱空桃在线播放| 久久久综合亚洲91久久98| 成人在线国产精品| 国产成人综合精品| 国产精品福利在线观看网址| 欧美激情xxxx| 日韩av理论片| 91精品国产综合久久久久久丝袜 | 美女www一区二区| av成人男女| 8x国产一区二区三区精品推荐| 久久久久久亚洲精品美女| 美女视频亚洲色图| 婷婷久久综合九色综合99蜜桃| 欧美一区二区三区在线观看免费| 视频在线观看入口黄最新永久免费国产 | 国产在线一区二区三区| 日韩一区二区免费高清| 亚洲精品美女视频| 136fldh精品导航福利| 日韩美女毛茸茸| 91麻豆免费视频| 高清国产一区二区三区四区五区| 2019日韩中文字幕mv| 深夜福利亚洲导航| 国产日韩av一区| 精品久久久中文字幕| eeuss一区| 国产精品日韩欧美一区二区| 日韩免费看网站| 国产a精品视频| 玖玖玖电影综合影院| 特级毛片在线观看| 蜜桃精品久久久久久久免费影院| 亚洲欧美国产va在线影院| 久久精品这里都是精品| av中文字幕一区二区| 在线观看中文字幕的网站| 精品一区二区中文字幕| 国产精品一区二区久久精品| 日韩欧美自拍偷拍| 久久精品欧美日韩|