Skip to content
Xin edited this page Aug 27, 2021 · 102 revisions

Hits

右边列表wiki是收录的paper(重要的事情讲三遍)

右边列表wiki是收录的paper(重要的事情讲三遍)

右边列表wiki是收录的paper(重要的事情讲三遍)

Welcome to the GameAI-paper-list wiki! Please look at the right list, this is the home page.
小伙伴们可以点右边列表里的链接去相应的wiki,因为可能后期会做分类,这里是主页。后期看反应会决定做不做一些基础算法的教学~

为什么要研究游戏AI呢:

因为它很有趣~!!!!:P
因为游戏中的问题是现实问题的折射
由于游戏的算法永远不会被单单的几种算法所束缚

反馈或希望参与运维的可以发送至个人邮箱mail address:Yexin_jinqiangyutaisui@outlook.com


个人感觉去看游戏AIpaper之前应该具备的一些知识如下:

  • 机器学习(Machine Learning):如果没有机器学习基础,去看paper会很吃力,至少要对机器学习中的名称要敏感,这样也好在遇到不懂的算法时去查看知识。强烈推荐不懂或补充知识的时候看英文书Machine Learning A Probabilistic Perspective by Kevin P. Murphy(虽然手上有电子书,但是害怕发出来会有侵权,想要的发邮件给我吧),中文的入门推荐看去b站上看吴恩达的视频
  • 深度学习模型(DeepLearning):如果机器学习可以似懂非懂的来接触,那深度学习必要基础应该是必备的,主要是目前深度强化学习的应用,以及游戏场景生成中深度学习的应用。必要的模型CNN、DNN、GAN,其余的可以遇到后再返回去看模型。
  • 强化学习(Reinforcement Learning):强化学习的发展历史可以说是很长了,主要是通过在迭代中不断反馈下一阶段的reward来更新agent的policy。这对于学习游戏AI的朋友来说绝对是必备知识了,想学习的推荐b站中文视频书籍《白话强化学习》,有兴趣也推荐看一下我的老师paulo rauber的博客(滑稽脸),再附上外国小哥higgsfield的深度强化学习DQN等网络的pytorch实现
  • 蒙特卡洛树搜索(Monte Carlo Tree Search(MCTS)):这可能是游戏有区别于人工智能其余领域的知识,在棋牌类游戏中蒙特卡洛树搜索被广泛应用,Alphago就是DL与MCTS的结合,想学习的朋友可以看这篇paper,Browne CB, Powley E, Whitehouse D, Lucas SM, Cowling PI, Rohlfshagen P, Tavener S, Perez D, Samothrakis S, Colton S. A survey of monte carlo tree search methods. IEEE Transactions on Computational Intelligence and AI in games. 2012 Feb 3;4(1):1-43.
  • 演化算法(evolutionary algorithm):同蒙特卡洛搜索树,演化算法相较而言可能更容易理解,演化算法是演化计算领域一个重要算法,该算法在游戏生成器和战斗AI领域有大量的应用,不同于基于梯度的局部优化方法,EA是全局优化方法,在AlphaStar(谷歌用来打星际的agent)里用到了大量的演化计算思想,推荐看我导师Diego的这篇paper,Gaina RD, Devlin S, Lucas SM, Perez D. Rolling horizon evolutionary algorithms for general video game playing. IEEE Transactions on Games. 2021 Feb 18.

附一张老师ppt上的图片 [Solver]


再是一些特别重要书本/paper/知识我放在首页

Yannakakis G N, Togelius J. Artificial intelligence and games[M]. Springer, 2018.
Artificial Intelligence and games
堪称游戏AI算法的圣经《Artificial Intelligence and games》,小编对这本书推崇至极,还是推荐读英文:pdf传送门 Artificial Intelligence and games-cn
中文版名为《人工智能与游戏》,暂无pdf链接,可以去淘宝上下单购买

  • Mnih, Volodymyr, Koray Kavukcuoglu, David Silver, Alex Graves, Ioannis Antonoglou, Daan Wierstra, and Martin Riedmiller. "Playing atari with deep reinforcement learning." arXiv preprint arXiv:1312.5602 (2013).
    arxiv链接:https://arxiv.org/abs/1312.5602
    这篇paper是(Deep Q-learning Networdk)DQN的发表paper,是任何一个强化学习学习者必读的paper~

  • Vaswani, Ashish, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, and Illia Polosukhin. "Attention is all you need." In Advances in neural information processing systems, pp. 5998-6008. 2017.
    pdf链接:https://proceedings.neurips.cc/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa-Paper.pdf
    这篇paper即大名鼎鼎的Transformer奠基之作,attention在CV,语音,NLP等各个DL领域已经广泛应用而且是目前的主流趋势,在游戏AI领域,attention最近也涌现出了各式各样的模型应用。虽然这一篇没有讲游戏应用,但是对AI学习者来讲看一下绝对是有必要的。

  • LSTM(Long Short term menmory)
    因为原文真的很长,这里推荐陈诚大神写的知乎专栏,写的真的很清晰,推荐不了解LSTM的小伙伴去看看~

  • AC框架(Actor-Critic)
    AC框架是目前较主流的强化学习结构,输出策略与分数,推荐去看知乎白话强化学习,还有突然发现的刘建平老师的宝藏教程,再附上国外小哥higgsfield写的pytorch的全代码实现,包括ppo等

  • Schulman J, Wolski F, Dhariwal P, et al. Proximal policy optimization algorithms[J]. arXiv preprint arXiv:1707.06347, 2017.
    也是大名鼎鼎的PPO算法,基础的损失函数改进支持off-policy的强化学习,并使其性能提升巨大,目前该算法已经是openAI的baseline算法。
    看完原文之后推荐看知乎大神魏思齐写的PPO详解

  • 模拟学习(imitation learning) 为了使agent在游戏的过程中表现得和人类玩家类似,模拟学习是目前国内游戏公司的主要应用研究方向之一,中文版推荐阅读由南京大学,香港中文大学(深圳)的许天,李子牛,俞扬撰写的《模拟学习简洁教程》,首页放有pdf,传送门链接


Clone this wiki locally