AgileRL 教程¶
这些教程提供了使用 AgileRL 与 PettingZoo 的入门指南。AgileRL 的多智能体算法利用了 PettingZoo 的并行 API,允许用户在竞争性和协作性环境中并行训练多个智能体。本教程包含以下内容:
AgileRL 概述¶
AgileRL 是一个专注于简化强化学习模型训练的深度强化学习框架。利用进化超参数优化 (HPO),与传统 HPO 技术相比,AgileRL 允许用户更快、更准确地训练模型。AgileRL 的多智能体算法可以同时协调多个智能体的训练,并且基准测试显示,与其他强化学习库中相同算法的实现相比,AgileRL 在更短的时间内回报率提高了 4 倍。
有关 AgileRL 以及该库提供的其他功能的更多信息,请查阅文档和 GitHub 仓库。
警告
AgileRL 仅支持低于 3.12 版本的 Python。
使用 PettingZoo 的示例¶

图1:训练后的 MADDPG 算法在 6 个随机回合中的表现¶