今年早些时候,谷歌的AlphaGo人工智能在五场比赛中四场击败了世界级围棋冠军李世石。这是一个重要的里程碑,这要归功于游戏中可能出现的大量位置,以及创造一个能够在宇宙热死之前有效评估这些位置的AI的难度。现在,暴雪正在与谷歌合作,开发能够玩实际电脑游戏的下一代人工智能:星际争霸II。
乍一看,这似乎没有多大意义。毕竟,几十年来,与“AI”对抗一直是电脑游戏的一大特色,从第一人称射击游戏到rpg,再到象棋模拟游戏。游戏AI和谷歌正在开发的AI之间的区别很简单:我们在游戏中所谓的人工智能大多是人工智能非常缺乏任何类似智力的东西。在许多游戏中,提高难度级别只是让电脑玩家获得更多资源、更快的构建时间、关于玩家活动的内部信息,或者放松对CPU同时执行多少动作的限制。它把机器人变成了强大的暴徒,但并没有真正成为他们更好的看他们在做什么。

游戏AI并不是你所说的“智能”,当它崩溃时,结果可能会很搞笑
游戏AI通常会大量使用脚本来决定计算机应该如何响应玩家活动(我们知道《星际争霸》的AI是这样做的,因为它实际上已经被研究过了很有深度).在最基本的层面上,这包括单位和建筑的构建顺序,以及计算机应如何响应各种场景的一些规则。为了让游戏看起来更真实,游戏AI必须能够对早期的突进、建立第二垒的扩张主义玩家和退缩并采取防守的玩家做出不同的反应。在一个在RPG游戏中,除非店主注意到你偷了什么东西,否则他可能会在他的商店里四处走动,这时一个新的脚本将支配他对玩家的反应。

《王者时代》中的AI脚本示例
因此,游戏AI很大程度上是一种幻觉,建立在脚本和精心编程的条件之上。游戏AI与DeepMind和暴雪想要构建的AI类型之间的一个关键区别是,游戏AI并不真正学习。它可以通过建造虚空射线来回应你的航母冲刺,或者用狗狗冲刺来对抗你的攻城坦克。但游戏实际上并没有学到任何东西;它只是对条件做出反应。一旦你退出比赛,计算机就不记得你的比赛,它也不会根据对手来调整自己的行为。
谷歌和暴雪想要创造的AI将能够学习,适应,甚至教会新玩家游戏的诀窍,这远远超出了当前游戏的预期。以人类获胜的方式约束AI仍然很重要,因为像《星际争霸》这样的游戏(对计算机来说)基本上只是巨大的数学问题,不受约束的CPU对手可以以让地球上最好的韩国玩家哭泣的速度微动。
谷歌DeepMind的研究科学家Oriol Vinyals表示,该公司期待着挑战。Vinyals说:“这是我很久以前玩过的一款游戏技术评论.“作为一名玩家,我可以证明《星际争霸》中有许多有趣的东西。例如,智能体将需要学习计划和利用记忆,这是机器学习中的热门话题。”
我们仍然不清楚这些举措是否能够轻松地转化为游戏发行;谷歌的AlphaGo基于它自己的自定义张量处理单元(TensorFlow)和不同数量的CPU和GPU内核,从48个CPU和1个GPU到1920个CPU和280个GPU。无论哪种方式,除非你碰巧住在服务器室,否则你都不会设置一个家庭系统来处理你的游戏。但这并不意味着电脑游戏不能从这类项目中受益。如果暴雪能够教会人工智能如何玩《星际争霸》,那么它也能够教会人工智能如何生成脚本和决策树,从而准确地模拟自己的游戏。
让人工智能教游戏如何对抗人类玩《星际争霸2》的想法听起来可能像科幻小说,谷歌和暴雪都没有提出过这么高级的东西。但如果这是一个长远的大构想,我也不会感到惊讶。毕竟,如果人类从来没有机会与计算机对抗,那么教计算机玩星际争霸2又有什么意义呢?
来源:ExtremeTech














