如今,在玩游戏时,经常会遇到与故事相关的过场动画,在这种情况下,您无法与游戏互动,只能在游戏过程中听或观看游戏。
但是,在许多游戏中,这些故事场景是使用游戏引擎而不是使用预渲染的视频实时渲染的。我似乎无法理解为什么在游戏开发过程中未预先渲染故事场景
我的问题是:
为什么不在游戏开发过程中将故事过场动画预先设置为具有最高设置的视频,以使用户不需要在其末端渲染它?
我的猜测是,游戏开发者不会选择这样做,因为视频和实时游戏渲染非常需要平滑过渡。
如今,在玩游戏时,经常会遇到与故事相关的过场动画,在这种情况下,您无法与游戏互动,只能在游戏过程中听或观看游戏。
但是,在许多游戏中,这些故事场景是使用游戏引擎而不是使用预渲染的视频实时渲染的。我似乎无法理解为什么在游戏开发过程中未预先渲染故事场景
我的问题是:
为什么不在游戏开发过程中将故事过场动画预先设置为具有最高设置的视频,以使用户不需要在其末端渲染它?
我的猜测是,游戏开发者不会选择这样做,因为视频和实时游戏渲染非常需要平滑过渡。
Answers:
我可以想到几个原因:
从评论中建议:
成本。使用具有优化预渲染场景的体系结构的软件(例如Rad Game Tool的“ Bink Video”),许可和实施的成本可能很高。(感谢@Honeybunch)
定制化。如果玩家可以更改其角色的外观,设备或聚会的组成,则这些选择将不会反映在预渲染的部分中(例如,始终显示规范的角色/负载/聚会),或者会显示许多预渲染的视频要求涵盖所有可能的组合(如果玩家有很多选择,这很快就变得不切实际)。(@DMGregory和@Kevin)
If you pre-rendered half of what you see in the game with "better" quality, the transition could make the game lose it's flow.
对,就是这样。例如,在《最终幻想8》中,这种效果非常明显(而且令人震惊),无论如何,至少对于PS 1,游戏中的图形本来就已经非常好,但是突然之间您遇到了过场动画,一切看起来都不同,因为您在电影而不是游戏引擎中。
许多游戏都允许角色在游戏中更改外观。在引擎中渲染场景可以反映这些变化。对于视频,您没有灵活性。
在引擎中渲染过场动画的其他优点包括:
与预渲染的视频不同,它可以扩展到硬件。一些较旧的游戏具有720p或更低的过场动画,在4k或更高分辨率的屏幕上看起来并不好。
它更适合mod。如果您选择安装高分辨率纹理模块,或者只是想用看上去酷酷的巨狼替换您的Witcher的马,那么在预渲染的视频中将看不到这些修改。
唇形同步更容易在引擎中处理。如今,嘴唇动画取决于音轨。这意味着配音演员不需要将其语音与角色嘴唇的动作同步。如果您需要将游戏从一种语言本地化为另一种语言,则您的配音演员只需要专注于自己的台词,而无需重新渲染场景。
它更加灵活。无论您的角色是因受伤而勉强直立还是喝醉了,在引擎中渲染时的当前状态都可以比视频更准确地反映出来。
环境被更准确地反映出来。也许您只是烧毁了整个森林,或者以某种方式设法避免了Aerith的死。好吧,预渲染的视频并不能解决所有可能的情况。
最后,所有这些都归结为这样一个事实,即在引擎中渲染的过场动画是动态的,因此提供了预渲染视频根本无法实现的灵活性。
以预渲染过场动画而闻名的游戏看起来比实际游戏要好得多,这些游戏是PlayStation 1时代的最终幻想游戏。例如,《最终幻想VII》的主角在过场动画中看起来像这样:
在实际游戏中像这样:
这是什么问题?过场动画与实际游戏玩法之间的美学差异如此之大,以至于看起来几乎像是同一款游戏。过场动画和游戏玩法之间的突破是如此明显,它打断了沉浸感,并挑战了玩家的不信任度。
如今,游戏通过使用游戏引擎渲染过场动画来避免这种情况。这样,游戏的互动部分和非互动部分之间的切入就更加无缝了。
虽然这不是100%被遗弃的东西。例如,巫师3集成了一些预先渲染的CGI序列。介绍过场动画很著名,但在实际游戏中的某些关键过场动画中也有一些微妙的用法,只有注意视频压缩伪像才能注意到。通常通过在屏幕上没有主要角色的场景中执行此操作来解决由于角色自定义导致的一致性问题。