AgileRL 教程

这些教程提供了使用 AgileRL 与 PettingZoo 的入门指南。AgileRL 的多智能体算法利用了 PettingZoo 的并行 API,允许用户在竞争性和协作性环境中并行训练多个智能体。本教程包含以下内容:

  • DQN: 训练一个 DQN 智能体通过课程学习和自博弈玩四子棋

  • MADDPG: 训练一个 MADDPG 智能体玩多智能体 Atari 游戏

  • MATD3: 训练一个 MATD3 智能体玩多粒子环境游戏

AgileRL 概述

AgileRL 是一个专注于简化强化学习模型训练的深度强化学习框架。利用进化超参数优化 (HPO),与传统 HPO 技术相比,AgileRL 允许用户更快、更准确地训练模型。AgileRL 的多智能体算法可以同时协调多个智能体的训练,并且基准测试显示,与其他强化学习库中相同算法的实现相比,AgileRL 在更短的时间内回报率提高了 4 倍。

有关 AgileRL 以及该库提供的其他功能的更多信息,请查阅文档GitHub 仓库

警告

AgileRL 仅支持低于 3.12 版本的 Python。

使用 PettingZoo 的示例

../../_images/test_looped.gif

图1:训练后的 MADDPG 算法在 6 个随机回合中的表现