全球首款AI原生游戏引擎再进化:GTA6再不来,我们就AI一个

全球首款AI原生游戏引擎再进化:GTA6再不来,我们就AI一个

文章来源:智汇AI    发布时间:2025-09-04

AI驱动的UGC游戏引擎要来接管了。

暂无访问

说是GTA6又跳票到明年了。

作为开放世界游戏的标杆,GTA系列不仅在游戏圈声名赫赫。尤其是在AI驱动的视频生成、三维生成或是世界模型等领域里,研究者们不仅采用游戏内场景为训练数据,更将生成类GTA的完整世界作为长久以来的目标。

但GTA6的难产已经成为一个过不去的梗,大家总是在调侃:用AI做个GTA比GTA6发布还快,就比如我们之前报道过的DecartAI。

但真的要用AI做一个GTA出来,一个游戏引擎是必不可少的。一个多月前,我们报道过全球首个由实时世界模型驱动的AI原生UGC游戏引擎Mirage。

在当时,我们拿公司附近的照片测试了一下场景生成的效果,很难说尽如人意。

但谁能想到,仅仅过了一个多月,Mirage就再一次迭代进化,发布了更强大、更灵活、更智能的Mirage2。

DynamicLabs称它为生成式世界引擎——不仅仅是为游戏而生,而是为任何你能想象的互动世界。

「从Mirage1到Mirage2,仅仅一个月,我们没有停下脚步,而是加速前进。」

01

他们号称,如果Mirage1展示了一个类似GTA世界模型的潜力,那么Mirage2是一款通用领域的世界模型,能让你即时创造、体验和改变任何游戏世界。

和Mirage1一样,Mirage2同样支持上传图片,将其转换成可交互的游戏世界。Mirage2也支持实时对话,在游戏过程中随时通过文本指令修改游戏世界。在这一次,Mirage支持生成的游戏场景通过视频进行分享。

Mirage2在生成性能上有了明显的进步。通过架构革新,它实现了:

更灵敏的提示控制:你的想法更快落地,画面更精准。

更低的游戏延迟:操作更顺畅,等待更少,沉浸感更强。

通用领域建模:不限题材,任何风格的世界都能实现。

在上一次,Mirage仅发布了两款可玩的demo,一个是GTA城市风格,另一个是竞速风格。

这一次打开demo页面,与Mirage1的交互基本一致,他们把UI做的精致了不少。重点是,Mirage2显著突出了各种完全不同风格的场景可选。

咱们举几个和传统的城市风格完全不一样的,比较跳脱的例子:

吉卜力风格:村庄任务

儿童画:彩色城市

繁星之夜

除此以外,Mirage2能够实现在交互过程中通过文本指令来修改世界:

有了对广泛不同风格的场景支持,Mirage2似乎已经有了与DeepMind最新的Genie3世界模型叫板的底气。相比于Genie3,Mirage2能够实现跑、跳、攻击等动作,十分钟以上的交互时间,200ms的延迟水平,并能在单个消费级GPU上运行。但Mirage2最大的不同是:它已经上线可以立即体验。

感兴趣的读者可以体验一下:https://demo.dynamicslab.ai/chaos

机器之心自然也上手测试了一下,和测试Mirage1的时候一样,我们还用了同一张公司附近的照片上传测试,导出视频如下:

这次我们给了一些详细的Prompt,效果和上一次对比简直是飞跃。

不仅显著改善了Mirage1物体比例的问题,加强了场景理解,场景的精度也有了明显的改善。人和车的模型明显变得更加合理,车流已经明显有了GTA4的既视感。

虽然在线体验时的延迟非常高,人物灵敏度和上次对比感知不到明显改善,但是导出的视频比较流畅。

在Mirage1发布时,团队成员ZhitingHu表示推理时间约为700ms,在Mirage2上显著改善至200ms,并且DynamicsLab表示仍然有进一步加速的空间。

02

尽管Mirage2在生成式世界建模方面取得了重大进展,但仍有一些技术问题:

动作控制精度:角色的操作还不够完美,比如在右转等动作上,偶尔会出现响应偏慢的情况。

视觉一致性:在快速切换场景时,可能会出现细节上的意外变化。不过,通过合理的提示工程(promptengineering),可以在较长时间内保持画面一致性。

我们试玩下来感知最明显的就是视觉一致性的问题。在上面的测试视频中有两点可以明显看出世界一致性不足的问题:当操作的主角走过电瓶车的人,视角被遮挡后,我们操作的主角莫名其妙的变成了骑电瓶车的人;视角回转时,照片中的建筑物已经完全不是原先的样子了。

这种效果与Genie3的演示的一致性效果相差甚远,正如读者在Mirage1的报道下评论的那样:

不过,虽然仍然存在这些亟待解决的问题,仅仅过了一个多月,Mirage就已经取得了如此进步,距离GTA6发售还有九个月,到时候这些AI驱动的UGC游戏引擎又会发展到哪一步呢?

相关推荐