一个名为 DiffusionCraft 的项目使用图像 AI 生成器 Stable Diffusion 基于《我的世界》(Minecraft)的场景来生成图像,即使在多人游戏中也有效。这将为用户提供很大的可能性来发挥他们的创造力。
自 Stable Diffusion 作为开源软件于 8 月底发布以来,无数爱好者已经创建了自己的项目。DiffusionCraft 是其中一个在 Reddit 上特别受欢迎的项目。从开发者肖恩·西蒙(Sean Simon,又名“Lozmosis”)分享的一段视频看,《我的世界》的建筑和场景被 Python 脚本几乎实时地转换为 AI 图像,他配备了 RTX 3080 的计算机生成每幅图像大约需要 3 到 4 秒。
西蒙表示,新图像的生成以设定的间隔或每当玩家放置或移除块时运行,而实时生成只需要足够好的硬件即可实现。他描述的生成过程是这样的:
- 脚本从《我的世界》窗口捕获图像,将其大小调整或裁剪为 512 x 512 像素,并将其保存到文件夹中。
- InvokeAI 被修改为在循环中运行,以文件夹中的最后一个图像为目标,并输出 Stable Diffusion 图像。
- 另一个脚本通过 tkinter 显示 Stable Diffusion 文件夹中的最新图像。
西蒙演示的只是“单人游戏体验”,但他表示,DiffusionCraft 允许多个用户通过共同构建《我的世界》场景来协作处理 AI 图像,然后作为图像生成的模板。西蒙的脚本在本地服务器上运行。

目前,西蒙尚未发布他的代码,但在他的 Twitter 帐户上可以看到该项目的进展情况。他指出,主要的挑战是目前的 img2img 模型只接受一个提示。因此,他说,定义某些功能需要多台计算机运行 Stable Diffusion,还需要有一个最终阶段来对图像被重新组装。
相比将《我的世界》场景转化为 Stable Diffusion 图像,它的逆转过程可能更令人感兴趣。Reddit 的一个用户询问是否有可能将 AI 艺术作品转化为《我的世界》等游戏场景,西蒙回答说他正在做一些事情,但没有细说。【数字叙事 Lighting】