我有兴趣开发一款游戏,其背景音乐会随游戏动作的气氛和场景而变化。当然,许多现有的游戏都可以做到这一点(例如Halo),但是我对任何有关开发此类系统的技术的资源/论文/文章都很感兴趣。
我有一些想法,我知道在代码级别实现同样具有挑战性,因为它会出现或获得适合该模型的音乐。他将对其中的任何链接或答案提出建议。
编辑:这是我正在寻找的信息类型:) http://halo.bungie.org/misc/gdc.2002.music/
我有兴趣开发一款游戏,其背景音乐会随游戏动作的气氛和场景而变化。当然,许多现有的游戏都可以做到这一点(例如Halo),但是我对任何有关开发此类系统的技术的资源/论文/文章都很感兴趣。
我有一些想法,我知道在代码级别实现同样具有挑战性,因为它会出现或获得适合该模型的音乐。他将对其中的任何链接或答案提出建议。
编辑:这是我正在寻找的信息类型:) http://halo.bungie.org/misc/gdc.2002.music/
Answers:
我知道的最早的系统是LucasArts的iMUSE系统,该系统已在大多数SCUMM游戏中使用。
(这是指向专利文件的链接,但专利已过期,在公共领域提供了其工作方式的非常详细的说明。专利系统的万岁实际上只能正常工作一次!)
“创建数字音乐”涵盖了自适应游戏音乐两次;我认为有关Max / MSP和Unity游戏引擎的这篇文章与您所寻找的最接近。也值得阅读评论,有关该主题的链接有很多资源。Gamasutra上
还有一篇关于游戏音频的技术性更深入的文章,讨论了Max / MSP开源同级产品Puredata的使用。
这是一个新的交互式音乐系统。psai 不幸的是,在发布这篇文章时,关于工程设计或内容创作管道的细节还不够多,但是很好地证明了所产生的游戏反应性音乐输出。
您可以自由地从wwise或fmod设计器的创作角度尝试创作方式,这些内容可能有助于在使用各种交互式创作方法进行音乐创作时帮助您初步创作音乐资产,然后再提交给您的任何特定设计。自己的引擎。
游戏动作和音乐参数有许多可能的组合,可用于交互式地构图。金钱时间和目标平台的预算通常是限制交互式音乐系统范围的限制因素。
从音频的角度来看,您可以为不同的交互式音乐系统生成以下类型的音乐资产:
完整的歌曲或歌曲部分的混合以及用于端到端或淡入淡出播放的过渡,以及用于退出/进入节拍的可选定时元数据。从音乐的角度来看,这是最少的交互性,但对于大量游戏来说仍然足够。
打包成多通道文件或同步播放的歌曲或歌曲节和过渡的最终混音茎,以允许茎之间的动态融合。它们还可以将定时元数据用于节拍切换,并且现在可以对词根使用不同的实时效果。
音频片段从混音到单个乐器声部,然后排列在交互式音乐编辑器的时间轴上,以重建歌曲部分和过渡。这样的安排提供了更大的粒度,可用于将零件引入和退出混合以及零件库中的随机化和其他动态效果。
除非您允许动态调整播放速率或实现音高偏移/时间伸缩效果,否则以上内容通常仅限于音频文件中记录的基本速度和键。另外,您可以编写大量的速度/键矩阵,但是从数据大小和工作量的角度来看,这将是非常浪费的。
来自Intermorphic的Noatikl正在引起一些嗡嗡声,并且看起来很有希望。
http://intermorphic.com/tools/noatikl/index.html
这里的一些历史: