这个问题源于许多“非正式”来源。电影如《2001年》,《太空漫游》和《前机械帝国》;像《目的地虚空》(弗兰克·赫伯特)这样的书,以及其他书籍都表明,一般智力想要生存,甚至了解其重要性。
生存可能有几种说法。最突出的是什么?
这个问题源于许多“非正式”来源。电影如《2001年》,《太空漫游》和《前机械帝国》;像《目的地虚空》(弗兰克·赫伯特)这样的书,以及其他书籍都表明,一般智力想要生存,甚至了解其重要性。
生存可能有几种说法。最突出的是什么?
Answers:
史蒂夫·奥莫胡德罗(Steve Omohudro)撰写了一篇名为《基本AI驱动器》的论文,详细介绍了为什么我们期望具有狭窄目标的AI能够找到一些基本的,通用的概念,这些概念对于实现其狭窄的目标是有用的。
例如,一个旨在使股票市场收益最大化的AI,但其设计对持续生存的重要性一无所知,这将使AI意识到其持续生存是使股票市场收益最大化的关键组成部分,并因此采取行动使其保持运转。
在一般情况下,我们应该持怀疑态度的“anthropomorphizing” AI和其他代码,但它好像有是有理由预计这一超越“好了,人类行为这种方式,所以它必须是如何将所有情报的行为。”
“生存本能”的概念可能属于马文·明斯基(Marvin Minsky)所称的“手提箱词”,即它把许多相关现象包装在一起,起初看起来是一个奇异的概念。
因此,很有可能我们可以构建出某种具有“硬编码”生存本能的外观的机制,而无需在设计中将其作为显式规则。
请参阅神经解剖学家瓦伦蒂诺·布雷滕伯格(Valentino Braitenberg)漂亮的小书《交通工具》,其中引人入胜的叙述了诸如“生存本能”这样的“自上而下”的概念如何“自下而上”演变。
此外,试图确保将智能文物放在其生存的优先位置上可能会轻易导致Killbot Hellscape。
我将引用《西西弗斯神话》来回答:
只有一个真正严重的哲学问题,那就是自杀。
因此,如果我们不希望AGI在存在的时候“终止自己”(无论意味着什么),可能就需要某种程度的生存本能。