论文介绍
生成具有不同行为的游戏AI是游戏领域一个具有挑战性的问题。近年来, 深度强化学习的快速发展给游戏AI的制作带来了革新, 但是强化学习一般被用来生成具有超人表现的游戏AI, 在行为多样性方面却有不足。在本文中, 我们提出了基于多目标进化强化的AI训练框架EMOGI, 该框架可以生成具有显著风格差异的游戏AI, 并且能够满足一定的胜率要求。该算法在Atari的Pong 和 逆水寒的环境中取得了非常好的效果。
实验效果
https://sites.google.com/view/ijcai20-emogi
论文地址
https://www.ijcai.org/proceedings/2020/466