找回密码
 立即注册
  • 回复
  • 收藏

这是AI的顶级研究人员认为人工智能将会实现的时候

tdmin 2018-12-21 05:22 35人围观 人工智能

人工智能学科的核心是有一天我们能够建造一个像人类一样聪明的机器。这种系统通常被称为人工通用智能系统,即AGI,它是将概念与更广泛的研究领域区分开来的名称。它还清楚地表明,真正的人工智能拥有广泛且适应性强的智能。到目前为止,我们已经建立了无数系统,这些系统在特定任务中是超人的,但是当涉及到一般脑力时,没有一个系统可以匹配老鼠。

但是,尽管这个想法在人工智能领域具有中心地位,但研究人员对于何时可以实现这一壮举几乎没有一致意见。
在本周出版的一本名为“智力建筑师”的新书中,作家和未来学家马丁·福特采访了今天在AI工作的23位最杰出的男性和女性,其中包括DeepMind首席执行官Demis Hassabis,Google AI首席Jeff Dean和斯坦福AI导演Fei - 李飞 在一项非正式调查中,福特要求他们每个人猜测哪一年将至少有50%的机会建立AGI。

福特采访的23人中,只有18人回答,其中只有两人记录在案。有趣的是,这两个人提供了最极端的答案:谷歌的未来学家和工程总监Ray Kurzweil建议,到2029年,AGI将有50%的可能性建成,Rodney Brooks,机器人和联合创始人iRobot,去了2200.其余猜测分散在这两个极端之间,平均估计为2099 - 81年。

换句话说:AGI是一个舒适的距离,虽然你可能活着看到它发生。
这与人工智能研究人员关于这一主题的第一次调查相差甚远,但它提供了一个罕见的精英观点快照,目前正在重塑世界。福特说,对于The Verge来说,他所收集的估计偏向更长的时间框架,而不是早期的调查,这往往会接近 30年,这一点特别有趣。
特说:“我认为你的态度和你的年轻程度之间可能存在着大致的相关性,”并指出他所采访的几位研究人员已经70多岁了,他们经历过这个领域的起起落落。“一旦你做了几十年和几十年的工作,也许你的确会变得更加悲观。”

福特说,他的采访也揭示了专家意见中的一个有趣的分歧 - 不是关于何时可以建立AGI,而是使用现有方法是否甚至可能。

福特的一些研究人员说,我们拥有大部分基本工具,建立AGI只需要时间和精力。其他人表示,我们仍然缺少实现这一目标所需的大量重大突破。值得注意的是,福特说,研究人员的工作基于深度学习(人工智能的子领域,这推动了最近的繁荣),他们倾向于认为未来的进步将使用神经网络,即当代人工智能的主力。那些具有人工智能其他部分背景的人认为,建立AGI需要其他方法,如符号逻辑。无论哪种方式,都存在相当多的礼貌分歧。

福特说:“深度学习营中的一些人非常贬低试图在人工智能中直接设计常识。” “他们认为这是一个愚蠢的想法。其中一人说这就像是试图将一些信息直接粘贴到大脑中。“
所有福特的受访者都注意到了当前人工智能系统的局限性,并提到了他们尚未掌握的关键技能。这些包括转移学习,其中一个领域的知识应用于另一个领域,以及无监督学习,其中系统在没有人类指导的情况下学习。(绝大多数机器学习方法目前依赖于人类标记的数据,这是发展的严重瓶颈。)

受访者还强调,在人工智能这样的领域进行预测是绝对不可能的,因为人工智能领域的研究已进入适应期,并且关键技术在首次发现之后几十年才达到其全部潜力。

加州大学伯克利分校的教授Stuart Russell写了一篇关于人工智能的基础教科书,他说,创建AGI所需的那些突破“与更大的数据集或更快的机器无关”,所以他们不能很容易绘制出来。

“我总是讲述核物理学中发生的事情的故事,”拉塞尔在接受采访时说。“欧内斯特卢瑟福于1933年9月11日表达的共识观点是,永远不可能从原子中提取原子能。因此,他的预测是“永远不会”,但事实证明是第二天早上Leo Szilard读了Rutherford的讲话,对此感到厌烦,并发明了由中子介导的核链式反应!卢瑟福的预测是“从不”,事实是大约16个小时后。以类似的方式,对于我对AGI的这些突破何时到来进行定量预测感到非常徒劳。“

福特表示,这种基本的不可知性可能是他与之交谈的人不愿意将他们的名字放在猜测旁边的原因之一。“那些选择较短时间框架的人可能会担心被关注,”他说。
关于AGI构成的危险的意见也不一。牛津大学哲学家尼克博斯特罗姆(Nick Bostrom)是“ 超级智能” (Elon Musk's的最爱)一书的作者,他有一个强烈的话语可以说明潜在的危险,他说人工智能比气候变化对人类的存在更具威胁。他和其他人说,这个领域最大的问题之一就是价值调整 - 教导AGI系统具有与人类相同的价值(着名的“ 回形针问题 ”)。

“关注的不是[AGI]会因为奴役它而讨厌或怨恨我们,或者突然出现意识的火花并且它会反叛,”博斯特罗姆说,“但是它会非常有力地追求一个不同的目标。从我们真正想要的。“

大多数受访者表示,与经济破坏和战争中使用先进自动化等问题相比,存在威胁问题极为遥远。哈佛大学人工智能教授芭芭拉·格罗兹(Barbara Grosz)为语言处理领域做出了开创性贡献,他表示,AGI伦理问题大多是“分散注意力”。“真正的一点是,我们现在有许多道德问题,我们的人工智能系统有,“格罗兹说。“由于可怕的未来主义情景,我认为将注意力转移到那些人身上是不幸的。”

福特说,这种来回可能是智能建筑师最重要的一点:在像人工智能这样复杂的领域,确实没有简单的答案。即使是最精英的科学家也不同意世界面临的基本问题和挑战。

福特说:“人们没有得到的主要外卖是多少分歧。” “整个领域都是如此难以预测。人们不同意它的移动速度,下一个突破将是什么,我们将多快到达AGI,或者最重要的风险是什么。

那么我们能坚持什么样的真理呢?福特说,只有一个。无论AI接下来会发生什么,“这将是非常具有破坏性的。”

鲜花

握手

雷人

路过

鸡蛋
我有话说......