人工智能

对于在纯数字环境中可以模仿“认知”功能的世界中对生活和挑战感兴趣的人们的问答

6
当AI的奇异性接手时,我们还有什么要做?
自从第一台工业革命机器问世以来,自动化已成为人类社会发展的一部分,在过去的三个世纪中,所有这些机器已经取代了机械,高风险和低技能的工作,例如汽车厂的生产线。 但是最近随着计算机的出现和AI的改进,以及寻求一种独特性(即,一种能够比人类能够更快,更好,更富有创造力,更便宜的,具有自我完善能力的计算机)的追求,未来将不仅导致低技能工人的替代,还将导致高技能工人的替代。我说的是一个不久的将来,那就是人工智能和机器将取代艺术家,设计师,工程师,律师,首席执行官,电影制片人,政客,甚至程序员。有些人对此感到兴奋,但说实话,我有些害怕。 我不是在这里谈论金钱问题,尽管我不喜欢这个主意,但让我们假设普遍收入已经实现,并且假设它运作良好。同样不是在谈论“ 机器将向人类发动战争的终结者世界 ”,我们也假设它们永远是完全友好的。 这里的问题是我们人类的动力之一。当AI的奇异性接手时,我们还有什么要做?每天,整天吗? 我们将如何生活?假设我喜欢绘画,如果计算机能够创造出我能做的更好的美术,我怎么能实现成为画家的梦想?我怎么能知道没有人会关心我的画,因为它们是纯人类的作品呢?或如(I,Danzmann)真实的我,我喜欢的代码,学会了我的第一个编程语言,9岁和从那以后一直在它,它看起来悲伤,我认为在一些年来,我可能永远不会对再碰。这对于所有职业都是如此,每个人都对某事充满热情,而且由于其独特性,每个人中的每一个都将不得不不复存在。 那么,我们将来会做什么?我要怎么办 在我的余生中,每一天都每天打高尔夫球(夸张的演辞,但我明白了)? 另外,我的孩子的动机是什么?我要告诉他们去学校做什么?当有人问“你长大后想做什么?”时,不可避免的答案就是什么。 如果高度先进的AI控制所有科学研究,那么我们学习的原因是什么?如果该知识无用,因为没有更多的工作并且科学研究完全由AI进行,那么我们人类将需要花费数十年的时间来学习某些东西,这是为什么?

3
难道只有超级智能才会出现技术上的奇异之处吗?
在《人工智能:现代方法》(第3版)的第26章中,教科书讨论了“技术奇点”。它引用了IJ Good,他在1965年写道: 让一个超智能的机器定义为可以远远超过任何人的所有智力活动的机器。由于机器的设计是这些智力活动之一,因此,超智能机器可以设计出更好的机器。毫无疑问,这将发生“智能爆炸”,而人类的智慧将被远远抛在后面。因此,第一台超智能机器是人类有史以来需要做出的最后一项发明,前提是该机器要服从足以告诉我们如何对其进行控制。 稍后在教科书中,您会遇到以下问题: 26.7-IJ Good声称,智能是最重要的品质,建造超智能机器将改变一切。一头有意识的猎豹反驳说:“实际上速度更重要;如果我们能制造超快的机器,那将会改变一切”,一头有感情的大象声称“你们都错了;我们需要的是超坚固的机器。”您如何看待这些争论? 教科书问题似乎是对IJ Good的隐含论点。善良可能将智力视为有价值的,仅仅因为人的力量在于所谓的“智力”这一特质。但是其他特质可能会被同等地重视(速度或力量),有知觉的人可能会疯狂猜测它们的首选特质是由某种机器“最大化”的。 这使我想知道,如果我们建造的机器不是最大化智能,而是最大化其他一些特征(一台不断提高其强度的机器,或者一台不断提高其速度的机器),是否会出现奇异现象。这些类型的机器可能具有变革性-超快机器可能会由于“强力”而迅速解决问题,而超强机器可将其原始动力用于各种物理任务。也许一台ultra-X机器无法构建另一台ultra-X机器(因为IJ Good将机器的设计视为一项智力活动),但是不断自我完善的机器仍会远远落后于其创造者,并迫使其创造者成为依赖它。 技术独特性是否仅限于超智能?还是技术奇异性是由不是“强AI”但仍是“超”优化器的机器引起的?

2
如何训练聊天机器人
我想开始尝试神经网络,作为一个玩具问题,我希望训练一个人聊天,即实现像cleverbot这样的聊天机器人。反正不是那么聪明。 我到处找了一些文档,发现有很多关于常规任务的教程,但是关于这个特定主题的教程很少。我发现的只是暴露了结果,而没有给出实现的见解。这样做的人做起来很浅(seq2seq上的tensorflow文档页面缺少imho)。 现在,我觉得我可能已经或多或少地了解了原理,但是我不确定,甚至不确定如何开始。因此,我将解释如何解决该问题,并希望对此解决方案提供反馈,告诉我我在哪里出错了,并且可能与该过程的详细解释和实践知识有任何联系。 我将用于该任务的数据集是我所有Facebook和whatsapp聊天记录的转储。我不知道它会多大,但可能还不够大。目标语言不是英语,因此我不知道在哪里可以快速收集有意义的对话样本。 我将从每个句子中产生一个思想载体。仍然不知道实际如何;我在deeplearning4j网站上找到了word2vec的一个很好的例子,但句子却没有。我了解单词向量的构建方式以及原因,但是我找不到句子向量的详尽解释。 使用思想向量作为输入和输出,我将训练神经网络。我不知道它应该有多少层,哪些必须是lstm层。 然后应该有另一个神经网络,它能够将思想向量转化为组成句子的字符序列。我读到我应该使用填充来弥补不同的句子长度,但是我想念如何编码字符(代码点足够吗?)。

4
可以使用一组语法规则来概括英语吗?
在编程语言中,存在一组语法规则,它们控制有效的语句和表达式的构造。这些规则有助于解析用户编写的程序。 在功能上是否存在完整的语法规则集,可以准确地解析英语(特定于语言环境)的任何语句,并且可以在基于AI的项目中实现? 我知道在线上有很多NLP工具包,但是效果不那么理想。他们中的大多数人都是使用特定的语料库训练的,这些语料库有时无法推断出表达式各个部分之间的某些复杂关联。 换句话说,我要问的是,一台计算机是否可以解析一个熟练的英语句子,好像它是由一个成年的讲英语的人解析的一样? 编辑:如果不能使用简单的语法规则来表示它,可以使用哪种语义结构来概括它? 编辑2:本文证明自然语言中没有上下文无关性。我正在寻找解决方案,即使它太复杂。


3
谁是第一个认识到类似人类的一般智力和特定领域的智力之间区别的人?
在1950年代,人们普遍相信“人工智能”将迅速变得具有自我意识和智能能力,足以与人下棋。许多人建议使用10年的时间范围(请参阅Olazaran的“感知器争论的官方历史”,或者可以说2001年:《太空漫游》)。 什么时候能弄清楚设计象棋这样的游戏的程序所导致的软件设计仅适用于像为其编程的游戏这样的游戏?谁是第一个认识到类似人类的一般智力和特定领域的智力之间区别的人?

1
智力需要什么样的身体(如果有的话)?
在1980年代中期,罗德尼·布鲁克斯(Rodney Brooks)著名地创建了“新AI”的基础。核心主张是,“老式人工智能”(GOFAI)的象征主义方法未能通过尝试“从顶部摆脱认知”而失败,并且需要体现的认知,即从下而上建立在“能力层次结构”中'(例如基本运动->徘徊->积极觅食)等。 我想大多数AI研究人员都会同意,“嵌入式认知”的观点已经(至少是默认地)取代了GOFAI成为主流。 我的问题是通过思想实验的形式提出的,并问道:“在失去AGI必不可少的东西之前,'体现的'哪些方面(如果有的话)可以放宽/忽略?”

3
是否存在任何文本验证码挑战都可以愚弄AI,但不能欺骗人类?
是否存在生成文本验证码(因此用户需要输入正确的文本)挑战的现代技术,这些挑战可以通过一些视觉混淆方法轻松地欺骗AI,但与此同时人类可以毫不费力地解决它们? 例如,我在谈论识别图像中嵌入的文本(不考虑任何外部插件,如Flash或Java,图像分类等)并重新键入已写文本或类似内容的简单能力。 我猜想添加噪音,渐变,旋转字母或更改颜色不再是可靠的方法,因为它们会很快被破坏。 有什么建议或研究吗?




2
为什么基线在某些时间步上取决于状态?
在机器人技术中,强化学习技术用于查找机器人的控制模式。不幸的是,大多数策略梯度方法在统计上都是有偏见的,这可能会使机器人处于不安全状况,请参阅Jan Peters和Stefan Schaal的第2页:通过策略梯度加强学习运动技能,2008年 通过运动原始学习,可以克服该问题,因为策略梯度参数优化将学习步骤引导到目标中。 quote:“如果梯度估计是无偏的,并且学习率满足sum(a)= 0,则保证学习过程至少收敛到局部最小值。因此,我们仅需要根据生成的数据来估计策略梯度在执行任务期间。”(同一论文的第4页) 在Berkeley RL类问题1 的作业中,它要求您显示,如果减去的基线是时间步长t的状态的函数,则策略梯度仍然没有偏见。 ▽θ∑t=1TE(st,at)∼p(st,at)[b(st)]=0▽θ∑t=1TE(st,at)∼p(st,at)[b(st)]=0 \triangledown _\theta \sum_{t=1}^T \mathbb{E}_{(s_t,a_t) \sim p(s_t,a_t)} [b(s_t)] = 0 我正在努力进行这种证明的第一步。有人可以指出我正确的方向吗?我最初的想法是以某种方式使用总期望定律使b(st)的期望以T为条件,但我不确定。提前致谢 :) 链接到方程的原始png

3
类人智慧是明智的目标吗?[关闭]
已关闭。这个问题需要更加集中。它当前不接受答案。 想改善这个问题吗?更新问题,使其仅通过编辑此帖子来关注一个问题。 6个月前关闭。 假设它是最先进的,它似乎一直是文献中关注人的心理成分的焦点。如果其他动物进入了AI领域,那只能以对人类不可行的方式研究灵长类动物或模拟a的神经活动,因为它的神经系统很简单。 也许有一个更具有前瞻性的思考原因,考虑使用较低的生命形式作为所需人工智能的模型。我一直在阅读EO Wilson和其他人对其他物种的协作能力所发表的看法。与细菌一样简单和具有适应性的生物具有非凡的品质。当然,蚂蚁是合作的典范。蜜蜂可以说是最精明的建筑,将生活方式的可持续性以及与其他物种的相互关系带入一种远远超出人类智能能力的艺术形式。 使用运动类比来刻画选项,人类智能更像是启蒙前角斗士运动或至少是冰上曲棍球,其中伤害对手被认为是明智的策略。蜜蜂所做的更像是爬山,精心而精心地建造。 蚂蚁做的事情很像接力赛,对对方的球队几乎没有兴趣,因为每个殖民地,就像赛道中的每个车道都是独立的,而且车道都有标记。蚂蚁同样在其领土上做标记,并且领土主张被尊重,这是威斯特伐利亚地缘政治家精神的最好体现。既没有小小的嫉妒,也没有仅仅出于自豪感的竞争。使用蚂蚁,就像使用智能田径教练一样,目标是使比赛的每条腿都比接力赛选手以前的最好表现更好。 细菌是长跑运动员。他们彼此交换DNA,而无视痛苦和恐惧的所有规则。他们以可持续的方式行事,认为一切都是理所当然,并将一切用于生存。他们几乎在地球生存的整个过程中幸存下来。如果太阳不首先成为超新星,它们将在人类消失后存在约一千亿年。 为什么我们要对计算机编程,使其无休止地成为竞争对手?人们会下载智能国际象棋程序,以便他们反复失败吗?不,他们下载Android OS是因为它可以协作并且不花钱。我们不能找到可以实现双赢的非零和游戏吗? 我们不是已经在我们自己的物种中周围有了足够的反向攻击,闲话,超临界代理了吗?为什么不像蚂蚁一样向协作智能方向发送AI?有新的人造朋友愿意分担我们日常工作的负担,不是更好吗? 我们难道不希望未来的机器人像六边形的蜜蜂一样建造吗?还是我们希望我们的机器人效仿我们的例子,因为不合理地坚持90度角,所以像人类一样浪费70%的材料在垂直结构中使用?

1
井字游戏等游戏中的神经网络与遗传算法?
目前,我正在做一个有关创建AI来玩Gomoku游戏的项目(这就像井字游戏,但在15 * 15的板上玩,要连续赢5个)。我已经使用Q学习成功地实现了一个完美的井字游戏AI,并将游戏状态/动作存储在表格中,但是对于15 * 15的游戏板,可能的游戏状态变得太大了,因此实施此项目也是如此。 我的问题是,我应该使用神经网络还是遗传算法解决这个问题?更具体地说,我应该如何实现呢?

6
最聪明的机器人比最愚蠢的人还聪明吗?
大多数人不擅长国际象棋。他们不会写交响曲。他们不读书。他们不是好运动员。他们不擅长逻辑推理。我们大多数人都起床了。去工厂,农场等工作。遵循简单的说明。喝啤酒去睡觉。 聪明的机器人无法做到的愚蠢的人能做些什么?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.