国产精品电影_久久视频免费_欧美日韩国产激情_成年人视频免费在线播放_日本久久亚洲电影_久久都是精品_66av99_九色精品美女在线_蜜臀a∨国产成人精品_冲田杏梨av在线_欧美精品在线一区二区三区_麻豆mv在线看

使用 Python TorchRL 進行多代理強化學習

人工智能
隨著多代理系統的出現,強化學習的復雜性不斷增加。為了管理這種復雜性,像 TorchRL 這樣的專門工具提供了一個強大的框架,可以開發和實驗多代理強化學習(MARL)算法。本文將深入探討如何使用 TorchRL 解決 MARL 問題,重點關注多代理環境中的近端策略優化(PPO)。

隨著多代理系統的出現,強化學習的復雜性不斷增加。為了管理這種復雜性,像 TorchRL 這樣的專門工具提供了一個強大的框架,可以開發和實驗多代理強化學習(MARL)算法。本文將深入探討如何使用 TorchRL 解決 MARL 問題,重點關注多代理環境中的近端策略優化(PPO)。

我們將使用 VMAS 模擬器,這是一個多機器人模擬器并且可以在 GPU 上進行并行訓練。他的主要目標多個機器人必須導航到各自的目標,同時避免碰撞。

依賴

在開始之前,請確保安裝以下依賴項:

!pip3 install torchrl  
 !pip3 install vmas  
 !pip3 install tqdm

理解近端策略優化 (PPO)

PPO 是一種策略梯度算法,它迭代地從環境中采樣數據,并直接使用這些數據來優化策略。這個過程包括采樣和訓練兩個階段,數據在收集后立即進行訓練更新。這種在線方法確保策略根據與環境最近的交互持續改進。

在線學習

在 PPO 中,學習過程依賴于一個評論家(critic),它評估策略所采取行動的質量。評論家估計給定狀態的價值,通過比較預期回報與實際結果來指導策略優化。

在多代理設置中,我們部署多個策略,每個代理一個,通常以分散的方式運作。每個代理的策略僅根據其局部觀察來決定其行動。但是評論家可以是集中的或分散的:

  • MAPPO : 評論家是集中的,以全局觀察或連接的代理觀察作為輸入。這種方法在可獲得全局狀態信息的集中式訓練場景中有益。
  • IPPO : 評論家是分散的,僅依賴于局部觀察。這種設置支持分散式訓練,代理只需要局部信息。

集中式評論家有助于緩解多個代理同時學習時出現的非平穩性問題,但可能因輸入的高維度性而面臨挑戰。

TorchRL

TorchRL是一個基于PyTorch的強化學習(Reinforcement Learning, RL)庫,專為研究人員和開發者設計,旨在提供一個靈活、高效的框架來實現和實驗各種RL算法。

  1. 與PyTorch深度集成:TorchRL充分利用了PyTorch的生態系統,使用戶能夠無縫地將RL算法與深度學習模型結合。
  2. 模塊化設計:庫提供了可組合的組件,允許用戶輕松構建和定制RL算法。
  3. 高性能:TorchRL注重效率,支持GPU加速和并行化,以加快訓練和推理速度。
  4. 多環境支持:兼容多種RL環境,包括OpenAI Gym、DeepMind Control Suite等。
  5. 豐富的算法實現:內置多種流行的RL算法,如DQN、PPO、SAC等。
  6. 擴展性:易于擴展和添加新的算法、環境和功能。

下面代碼我們將使用TorchRL來完成我們的目標

1、設置超參數

我們從定義 MARL 設置的超參數開始。這些參數控制模擬和訓練過程的各個方面,如設備類型、批量大小、學習率和 PPO 特定設置。

import torch  
 from torch import multiprocessing  
   
 # 設置設備  
 is_fork = multiprocessing.get_start_method() == "fork"  
 device = torch.device(0) if torch.cuda.is_available() and not is_fork else torch.device("cpu")  
 vmas_device = device  # 運行 VMAS 模擬器的設備  
 # 采樣和訓練參數  
 frames_per_batch = 6000    
 n_iters = 10    
 total_frames = frames_per_batch * n_iters  
 # 訓練細節  
 num_epochs = 30    
 minibatch_size = 400    
 lr = 3e-4    
 max_grad_norm = 1.0    
 # PPO 參數  
 clip_epsilon = 0.2    
 gamma = 0.99    
 lmbda = 0.9    
 entropy_eps = 1e-4

2、創建環境

TorchRL 與 VMAS 的集成允許我們高效地創建和管理多代理環境。在我們環境中多個代理必須在 LIDAR 傳感器的引導下導航到各自的目標,同時避免碰撞。

from torchrl.envs.libs.vmas import VmasEnv  
   
 max_steps = 100    
 num_vmas_envs = frames_per_batch // max_steps    
 scenario_name = "navigation"  
 n_agents = 3  
 env = VmasEnv(  
     scenario=scenario_name,  
     num_envs=num_vmas_envs,  
     continuous_actions=True,  
     max_steps=max_steps,  
     device=vmas_device,  
     n_agents=n_agents,  
 )

3、策略設計

策略網絡在 PPO 中至關重要,它負責根據代理觀察生成動作。鑒于環境中的連續動作空間,我們將使用 Tanh-Normal 分布來模擬動作,這樣還可以決定是否在代理之間共享參數,在計算效率和行為多樣性之間權衡。

from torch.nn import Sequential, Tanh  
 from tensordict.nn import TensorDictModule  
 from torchrl.modules import MultiAgentMLP, ProbabilisticActor, TanhNormal  
 from tensordict.nn.distributions import NormalParamExtractor  
   
 share_parameters_policy = True  
 # 定義策略網絡  
 policy_net = Sequential(  
     MultiAgentMLP(  
         n_agent_inputs=env.observation_spec["agents", "observation"].shape[-1],  
         n_agent_outputs=2 * env.action_spec.shape[-1],  
         n_agents=env.n_agents,  
         centralised=False,  
         share_params=share_parameters_policy,  
         device=device,  
         depth=2,  
         num_cells=256,  
         activation_class=Tanh,  
    ),  
     NormalParamExtractor(),  
 )  
 # 將網絡包裝在 TensorDictModule 中  
 policy_module = TensorDictModule(  
     policy_net,  
     in_keys=[("agents", "observation")],  
     out_keys=[("agents", "loc"), ("agents", "scale")],  
 )  
 # 創建概率性行動者  
 policy = ProbabilisticActor(  
     module=policy_module,  
     spec=env.unbatched_action_spec,  
     in_keys=[("agents", "loc"), ("agents", "scale")],  
     out_keys=[env.action_key],  
     distribution_class=TanhNormal,  
     distribution_kwargs={  
         "low": env.unbatched_action_spec[env.action_key].space.low,  
         "high": env.unbatched_action_spec[env.action_key].space.high,  
    },  
     return_log_prob=True,  
     log_prob_key=("agents", "sample_log_prob"),  
 )

4、評論家網絡設計

評論家網絡評估狀態值,指導策略更新。可以根據使用 MAPPO 還是 IPPO 來選擇集中式或分散式評論家。在代理之間共享參數可以加速訓練,但是可能導致同質化策略。

share_parameters_critic = True  
 mappo = True  # 設置為 False 以使用 IPPO  
   
 critic_net = MultiAgentMLP(  
     n_agent_inputs=env.observation_spec["agents", "observation"].shape[-1],  
     n_agent_outputs=1,    
     n_agents=env.n_agents,  
     centralised=mappo,  
     share_params=share_parameters_critic,  
     device=device,  
     depth=2,  
     num_cells=256,  
     activation_class=Tanh,  
 )  
 critic = TensorDictModule(  
     module=critic_net,  
     in_keys=[("agents", "observation")],  
     out_keys=[("agents", "state_value")],  
 )

5、數據收集

TorchRL 中的數據收集通過設計用于自動處理環境重置、動作計算和環境步進的類得到簡化。所以我們可以直接使用 SyncDataCollector 來收集訓練數據。

from torchrl.collectors import SyncDataCollector  
   
 collector = SyncDataCollector(  
     env,  
     policy,  
     device=vmas_device,  
     storing_device=device,  
     frames_per_batch=frames_per_batch,  
     total_frames=total_frames,  
 )

6、訓練循環

訓練循環將環境、策略、評論家和數據收集器結合在一起,通過采樣和訓練階段的迭代來優化代理的性能。

from torchrl.data.replay_buffers import ReplayBuffer  
 from torchrl.data.replay_buffers.samplers import SamplerWithoutReplacement  
 from torchrl.data.replay_buffers.storages import LazyTensorStorage  
 from torchrl.objectives import ClipPPOLoss, ValueEstimators  
 from tqdm import tqdm  
   
 # 重放緩沖區設置  
 replay_buffer = ReplayBuffer(  
     storage=LazyTensorStorage(  
         size=frames_per_batch,  
         device=device,  
    ),  
     sampler=SamplerWithoutReplacement(),  
 )  
 # PPO 損失設置  
 ppo_loss = ClipPPOLoss(  
     actor=policy,  
     critic=critic,  
     clip_epsilon=clip_epsilon,  
     entropy_bonus=entropy_eps,  
     value_loss_coef=0.5,  
     gamma=gamma,  
     lam=lmbda,  
     advantage_normalization=True,  
 )  
 # 訓練循環  
 for i in tqdm(range(n_iters)):  
     batch = collector.next()  
     replay_buffer.extend(batch)  
     for _ in range(num_epochs):  
         for minibatch in replay_buffer.sample(minibatch_size):  
             loss = ppo_loss(minibatch)  
             loss.backward()  
             torch.nn.utils.clip_grad_norm_(ppo_loss.parameters(), max_grad_norm)  
             optimizer.step()  
             optimizer.zero_grad()

這樣我們完整的代碼就完成了,可以看到通過TorchRL,可以減少我們很多的代碼開發工作。

總結

本文提供了使用 TorchRL 和 PPO 實現 MARL 解決方案的全面指南。通過這些步驟,可以在多代理環境中訓練代理以導航復雜任務,同時利用 GPU 加速模擬和并行計算的力量。無論選擇集中式還是分散式評論家,TorchRL 都提供了設計和實驗不同 MARL 架構,可以幫助你解決多代理強化學習的復雜性。

責任編輯:華軒 來源: DeepHub IMBA
相關推薦

2024-10-12 17:14:12

2023-08-28 06:52:29

2024-05-30 16:37:29

2025-03-28 10:16:15

2023-03-09 08:00:00

強化學習機器學習圍棋

2020-08-10 06:36:21

強化學習代碼深度學習

2020-06-05 08:09:01

Python強化學習框架

2023-10-31 16:40:39

機器學習強化學習

2023-11-07 07:13:31

推薦系統多任務學習

2025-06-03 08:49:00

2021-09-17 15:54:41

深度學習機器學習人工智能

2025-06-03 06:12:03

2025-05-06 08:40:00

2022-11-02 14:02:02

強化學習訓練

2025-05-08 09:16:00

模型強化學習訓練

2020-11-12 19:31:41

強化學習人工智能機器學習

2024-04-03 07:56:50

推薦系統多任務推薦

2024-12-09 08:45:00

模型AI

2023-04-23 10:12:14

算法強化學習

2023-07-20 15:18:42

點贊
收藏

51CTO技術棧公眾號

韩日一区二区三区| 成人精品鲁一区一区二区| 亚洲国产精品99久久| 成年人午夜视频在线观看| 影视一区二区| 欧美激情网站在线观看| 婷婷在线播放| 亚洲综合久久av| 日韩a∨精品日韩在线观看| 影音先锋亚洲电影| 欧美一区亚洲一区| 免费在线观看一区| 欧美精品乱码久久久久久按摩| 欧美aⅴ在线观看| 日韩国产精品久久久| 91精品久久久久久久久中文字幕| crdy在线观看欧美| 精品网站999www| 天堂аⅴ在线地址8| 亚洲黄色免费网站| 成人综合视频在线| 狠狠色伊人亚洲综合成人| 豆国产97在线| 欧美**字幕| 久久久久久久久久久91| 色综合一本到久久亚洲91| 欧美一区二区三区不卡| 青青国产在线| 亚洲成a人v欧美综合天堂下载| 污版视频在线观看| 97se亚洲国产综合在线| 欧美另类videos| 看电视剧不卡顿的网站| 久久99精品久久久久久秒播放器 | 人禽交欧美网站免费| 久久91成人| 欧美激情亚洲综合一区| 亚洲人成777| 久久视频免费在线播放| 最新日韩一区| 中文字幕日韩精品有码视频| 黑人精品一区| 最近2019中文字幕mv免费看 | 天堂va久久久噜噜噜久久va| 国产主播一区| 日韩一区三区| 欧美日本国产在线| 福利视频一区| 日韩一区二区精品视频| 91国拍精品国产粉嫩亚洲一区 | 亚洲欧洲av| 2024亚洲男人天堂| 中文字幕精品影院| 国产精品第一第二| 一二三四社区在线视频| 日本一区二区久久| 国产精品视频黄色| 国产精品麻豆久久久| jizz国产| 黄色成人在线免费| 麻豆av在线导航| 亚洲黄色av网站| 97人人做人人爽香蕉精品| 久久亚洲精品国产亚洲老地址| 国产一区二区三区国产精品| 韩国福利视频一区| 成人一区二区| 久久久7777| 国产乱子伦视频一区二区三区| 日韩免费在线观看av| 99久久99久久精品国产片果冻| 蜜臀av免费观看| 偷窥少妇高潮呻吟av久久免费| av在线播放网| 在线观看亚洲区| 亚洲理论电影| 精品中文字幕人| 国产成人在线影院| 2018高清国产日本一道国产| 欧美性videosxxxxx| 一区二区电影免费观看| 91av在线免费观看| 亚洲二区免费| 黄色动漫在线免费看| 五月天一区二区三区| 超碰97免费在线| 高清在线视频日韩欧美| 欧美日韩国内| 69sex久久精品国产麻豆| 亚洲三级电影网站| 最近中文字幕免费mv2018在线| www.亚洲一区| 亚洲中无吗在线| 欧美无砖专区免费| 亚洲a一区二区| 校园春色亚洲| 国产精品黄视频| 国内久久婷婷综合| 最美情侣韩剧在线播放| 亚洲视频第一页| 日韩一区电影| 免费特级黄色片| 五月激情六月综合| 你懂得影院夜精品a| 7777精品伊久久久大香线蕉语言| 粉嫩在线一区二区三区视频| 97在线观看免费高清视频| 日韩av一区在线观看| 免费观看久久av| 国产又粗又爽又黄的视频| 亚洲成人av一区二区三区| **欧美日韩在线观看| 亚洲精品日韩激情在线电影| 91在线国产福利| 最新av在线播放| 欧洲成人性视频| 国产伦精品一区二区三区在线观看 | 又黄又爽在线免费观看| 亚洲精品综合精品自拍| 欧美激情偷拍自拍| 日韩欧美xxxx| 日韩精品福利网站| 欧美日韩1080p| 色哟哟精品视频| 亚洲四色影视在线观看| 狠狠入ady亚洲精品经典电影| 午夜宅男在线视频| 亚洲精品videossex少妇| 91成人精品| 国产女主播在线| 日韩一区二区三区国产| 美腿丝袜亚洲综合| 男人和女人做事情在线视频网站免费观看| 国自产精品手机在线观看视频| 成人中文字幕电影| 日韩精品av| 亚洲一区二区三区涩| 51久久夜色精品国产麻豆| 天天综合精品| 超碰在线94| 国产91精品在线播放| 欧美国产精品一区二区| 豆花视频一区| 欧美三级一级片| 国产亚洲欧美视频| 精品一区二区综合| 美女高潮视频在线看| 亚洲 国产 日韩 综合一区| 欧美乱熟臀69xxxxxx| 亚洲黄色影片| 免费在线午夜视频| 国产一区二区三区四区hd| 日韩欧美在线视频日韩欧美在线视频 | 九九热99久久久国产盗摄| 精品一二三四区| 国产网红在线观看| 欧美少妇一区| 欧美一区二区网站| 老色鬼久久亚洲一区二区| 成年人在线视频免费观看| 成人av免费看| 欧美三电影在线| 亚洲一区视频| 国产91足控脚交在线观看| 亚洲高清123| 国产视频精品免费播放| 国模无码大尺度一区二区三区| 综合日韩av| 国产精品久久..4399| 中文字幕亚洲欧美日韩高清| 风间由美性色一区二区三区| 四虎影视成人精品国库在线观看 | 国产精品乱码人人做人人爱 | 天天人人精品| 6080日韩午夜伦伦午夜伦| 日韩午夜免费视频| 天天干在线视频论坛| 亚洲草草视频| 伪装者在线观看完整版免费| 亚洲精品99久久久久| 国内外成人在线| 精品国产不卡一区二区| 开心丁香婷婷深爱五月| 成人天堂噜噜噜| 制服视频三区第一页精品| 国产一二三精品| 国产suv精品一区二区四区视频| 最近中文字幕mv2018在线高清| 国新精品乱码一区二区三区18| 亚洲乱码国产乱码精品精| 国产欧美日韩综合精品一区二区| 成人短片线上看| 欧美人与性动交α欧美精品济南到| 妞干网视频在线观看| 1769国产精品| 欧美日韩国产高清一区| 99久久免费视频.com| 精品国产一区二区三区久久久樱花| 亚洲精品传媒| 毛片av免费在线观看|