自打Alpha Go战胜棋手李世石之后,人工智能在游戏领域的开挂之旅已经无法止步。先后战胜了围棋界的柯洁、Dota圈的Dendi和Sumail,甚至其进化版还在围棋界战胜了初版的Alpha Go,完美实现了自我超越。
如今,Open AI又为世人展示了其最近的能力进化:团队赛吊打Dota职业战队。
此次对战的AI系统名为OpenAI Five,以对应5V5团队赛之战,人类方代表出战的是2018年Ti8世界冠军OG战队。最终的结果就是,人类方以0:2惨败给AI。
通过观看竞赛视频可以看出,OpenAI Five与人类战队之间的主要区别在于,人类之间有着自己的角色分工,而AI则更倾向于将自己复制了五份,并没有太明显的攻击辅助区别。
AI的优势在于,具备人类选手无法比拟的操作手速以及默契程度。人类选手即便再默契,领会战术变化和通信也需要消耗时间,加上人类选手在操作上有一定劣势,还要考虑容错率进去。
AI控制的五人战队,可以借助这种天然优势和角色的无差别性,在局部对抗中通过灵活切换攻击方向持续损耗人类选手,并通过丁点的累积赢得最终的胜利。
但是,这种天然优势并不能帮助其在Dota和星际这样的战术战略游戏中实现对人类选手的吊打,在通过长时间的训练之后,OpenAI掌握了战略的概念,这令其有了全然不一样的表现。
当然,OpenAI 的长时间和人类的长时间并不一致,其使用了256 个 V100 GPU 和 128000 个 CPU 训练模型,80% 时间自我对弈,20% 的时间和之前版本对战。每天进行的游戏数量时长相当于大约180年。230多天训练则相当于人类4万多年的时间。
其战略也是人类职业比赛中很少见的耗死你,多买药,属性什么的就排第二好了。职业选手们好像并不太适应这一策略,但好歹坚持了近40分钟。
但到了第二局,人类中单首先送了人头,然后就彻底溃败了。
你不能说职业选手们没有好好打,但需要考虑到情绪的影响,估计就连AI时不时给出的胜率预估都能给选手们带来某些情绪上的变化。
相信经过了这几年AI在游戏领域的征战,即便是再固执的人类支持者,也应该相信AI的强大实力已经越来越不可能超越,即便信了杨超越,转发再多的锦鲤也是一样的结果。
而战略类型游戏的失守,也表示人类在游戏竞技中已经再无一丝占据优势的领域,人类只能成为AI的陪练。
或许连陪练都干不了了,据说这次OpenAI Five的训练过程中都没有使用人类数据。
打游戏打不过,那么游戏领域只有一个方向可供AI发挥—游戏开发。
与AI学会电竞一样,要学会游戏开发也不是一蹴而就。
以RPG游戏为例,首先是学会教会AI如何对素材进行个性化改造生成,之后要学会按照不同的审美观将素材组合成规定的场景。
接下来是要设定各种道具、刷新点、怪物等等类型的数据生成,之后还有实际的完善和测试工作。
将AI用于游戏开发,根本目的不是为了代替设计师,而是要通过一系列个性化的参数设定,令游戏的重复制作步骤在短时间内完成,可能是几秒,也可以是几分钟。
最终的好处是降低设计师、美术和程序人员的工作量,这样可以推出大批低成本的高品质游戏。
《星际公民》
大部头的3A游戏开发费用不破亿美刀都不好意思出来打招呼,一个场景往往需要设计师花费几个月来进行设计建模渲染和修改,但玩家要通关相应的场景却只需要20分钟甚至更短,性价比太低。史上最大众筹的游戏《星际公民》已经超过了2亿美元,但依然没有完工的迹象。
就算能动员众多的玩家进行UGC丰富游戏,也需要游戏的热度足够,还要有好用的编辑器。
《马里奥制造》和暴雪编辑器已经非常好用了,但依然需要大量重复性的工作。
《马里奥制造》的一名玩家花了三年才打通自己设计的关卡,直到今年打通之后,他这才分享了自己的成果。
最好的方法是将AI集成到游戏引擎中去,开放更多可自定义的参数接口,通过建立强大的中台系统来快速开发游戏。
谷歌旗下知名AI公司DeepMind与游戏开发商Unity Technologies达成了合作,在虚拟世界人工智能培训方面进行协力。为了在物理现实环境中训练算法,DeepMind将大规模地运行软件,Unity或Unreal等游戏引擎为高级AI技术提供了可自定义的设置。
网友评论