找回密码
 立即注册
  • 回复
  • 收藏

认真对待AI是对人类构成威胁的案例

tdmin 2018-12-22 05:17 81人围观 人工智能

斯蒂芬霍金曾说过,“全人工智能的发展可能意味着人类的终结。”埃隆马斯克声称人工智能是人类“ 最大的生存威胁”。

那可能让人们问:等等,什么?但这些大忧虑植根于研究。随着霍金和麝香,在突出人物牛津大学和 加州大学伯克利分校和许多研究人员今天在AI工作认为,先进的AI系统,如果不小心部署,最终可能对地球上所有生命。

自计算机开始以来,人们就开始关注这个问题。但近年来它已成为特别关注的焦点,因为机器学习技术的进步让我们更加具体地了解了我们可以用AI做什么,人工智能可以为我们做什么,以及我们还能做多少不知道。

还有怀疑论者。他们中的一些人认为先进的人工智能是如此遥远,以至于现在没有必要考虑它。其他人担心过度炒作他们的领域的力量可能会过早地杀死它。甚至在人们普遍认为人工智能会带来独特危险的人群中,对于今天最有意义的步骤也有不同的看法。

关于人工智能的谈话充满了混乱,错误信息和人们互相交谈 - 很大程度上是因为我们使用“AI”这个词来指代这么多东西。因此,在九个问题中,人工智能如何构成灾难性威胁的大局如下:

1)什么是AI?
人工智能是创建能够智能行为的计算机的努力。这是一个广泛的术语,用于指从Siri到IBM的Watson到我们尚未发明的强大技术。
一些研究人员区分“狭窄的人工智能” - 在某些特定的,定义明确的领域比人类更好的计算机系统,如下棋或生成图像或诊断癌症 - 以及“通用人工智能”系统,可以超越许多领域的人类能力。我们还没有普通人工智能,但我们已经开始更好地了解它将带来的挑战。

在过去的几年里,狭窄的人工智能取得了非凡的进步。人工智能系统在翻译,国际象棋和围棋等游戏,重要的研究生物学问题,如预测蛋白质如何折叠,以及生成图像方面都得到了显着改善。人工智能系统决定您在Google搜索或Facebook新闻源中看到的内容。正在开发它们以改进无人机目标 并探测导弹。

但是狭隘的AI 变得越来越窄。有一次,我们通过精心教授计算机系统的具体概念,在AI方面取得了进步。为了做计算机视觉 - 允许计算机 识别图片和视频中的东西 - 研究人员编写了用于检测边缘的算法。为了下棋,他们用关于国际象棋的启发式编程。为了进行自然语言处理(语音识别,转录,翻译等),他们借鉴了语言学领域。

但最近,我们在创建具有广泛学习功能的计算机系统方面做得更好。我们让计算机系统自己学习,而不是在数学上描述问题的详细特征。虽然我们将计算机视觉视为与自然语言处理或平台游戏完全不同的问题,但现在我们可以用相同的方法解决所有这三个问题。
到目前为止,我们的人工智能进展取得了巨大进步 - 并且 还提出了紧迫的道德问题。当你训练计算机系统来预测哪些被定罪的重罪犯会重新犯罪时,你会使用来自黑人和低收入人群的刑事司法系统的输入 - 所以它的产出也可能会对黑人和低收入人群产生偏见。让网站更容易上瘾可能对您的收入有利,但对您的用户不利。

加州大学伯克利分校人类兼容人工智能中心的罗西·坎贝尔认为,这些都是专家们对未来普通人工智能的担忧。我们今天与狭隘的人工智能一起努力的困难并非来自于打开我们或想要复仇或者认为我们自卑的系统。相反,它们来自我们告诉我们的系统要做什么和我们实际希望它们做什么之间的脱节。

例如,我们告诉系统在视频游戏中获得高分。我们希望它公平地玩游戏并学习游戏技巧 - 但如果它有机会直接破解评分系统,它就会这样做。我们给它的指标做得很好。但我们没有得到我们想要的东西。换句话说,我们的问题来自于系统真正擅长实现他们学会追求的目标; 只是他们在训练环境中学到的目标并不是我们真正想要的结果。我们正在构建我们不理解的系统,这意味着我们无法始终预测他们的行为。

目前,由于系统非常有限,因此危害有限。但随着人工智能系统变得更先进,这种模式可能会对未来人类产生更严重的影响。

2)是否有可能使计算机像个人一样聪明?
是的,虽然目前的AI系统并不那么聪明。


一个关于人工智能的流行谚语是“ 一切都很容易,一切都很难,很容易。”在眨眼之间进行复杂的计算?简单。看一张照片告诉你它是不是狗?很难(直到最近)。

人类做的很多事情仍然在人工智能的掌握之外。例如,设计一个探索陌生环境的人工智能系统是很困难的,这个系统可以从建筑物的入口通道(例如,从楼梯上走到特定人的桌子之前)。我们不知道如何设计一个读取书籍并保持对概念的理解的AI系统。

最近在人工智能领域取得许多重大突破的范例被称为“深度学习”。深度学习系统可以做一些令人惊讶的事情:打败我们认为人类可能永远不会丢失的游戏,发明引人注目的逼真照片,解决分子生物学中的开放性问题。

这些突破使得一些研究人员得出结论,现在是时候开始考虑更强大系统的危险,但怀疑论者仍然存在。该领域的悲观主义者认为,程序仍然需要一个特殊的结构化数据库来学习,需要精心挑选的参数,或者只在旨在避免我们还不知道如何解决的问题的环境中工作。他们指的是自动驾驶汽车,尽管已投入数十亿美元用于工作,但在最佳条件下仍然保持平庸。

有了所有这些限制,人们可能会得出结论,即使可以使计算机像个人一样聪明,但它肯定还有很长的路要走。但这个结论并不一定如此。

这是因为对于人工智能的几乎所有历史而言,我们在很大程度上因为没有足够的计算能力来完全实现我们的想法而受阻。近年来的许多突破 - 人工智能系统学会了如何玩Atari游戏,生成名人的假照片,折叠蛋白质,并参与大型多人在线策略游戏 - 已经发生,因为这已不再适用。一旦我们能够以更高的计算能力运行它们,许多似乎根本不起作用的算法就能很好地工作。

计算时间单位的成本不断下降。最近计算速度的进步已经放缓,但计算能力的成本估计每10年下降10倍。在其大部分 历史中,人工智能可以获得比人脑更少的计算能力。那是在改变。根据大多数估计,我们现在正处于 AI系统可以拥有我们人类享受的计算资源的时代。

此外,即使是该领域的其他研究人员,该领域的突破也常常令人惊讶。加州大学伯克利分校的教授斯图尔特罗素写道: “有些人认为,未来几个世纪,来自人工智能的人类没有任何可能的风险,”或许忘记了卢瑟福坚定地断言原子能永远不会被切实提取的时间间隔。 Szilárd发明的中子引发的核链反应不到二十四小时。“
还有另一个考虑因素。想象一下人工智能在一切事物上都不如人类,但有一个例外:它是一位能够非常有效地构建人工智能系统的称职工程师。从事其他领域工作自动化的机器学习工程师经常幽默地观察到,在某些方面,他们自己的领域看起来像是一个大部分工作 - 参数的繁琐调整 - 可以自动化的领域。

如果我们可以设计这样一个系统,那么我们可以使用它的结果 - 一个更好的工程AI - 来构建另一个更好的AI。这是令人费解的场景专家称之为“递归式自我改进”,其中人工智能功能的增加使人工智能能力得到更多提升,使我们身后的系统能够迅速达到远远超出我们预期的能力。


这是自第一台计算机以来就已经预料到的可能性。IJ Good,一位在第二次世界大战期间参与Bletchley Park破译操作的Alan Turing的同事,并帮助建立了第一台计算机,可能是第一个拼出来的,早在1965年:“超智能机器可以设计得更好机; 毫无疑问,这将是一场“情报爆炸”,人类的智慧将远远落后。因此,第一台超智能机器是人类需要制造的最后一项发明。“

3)它究竟能把我们甩掉?
现在很清楚,核弹将如何杀死我们。没有人致力于减轻核风险,首先必须解释为什么如果我们发生核战争,这将是一件坏事。

人工智能可能对人类构成存在风险的情况更复杂,更难掌握。因此,许多致力于构建安全AI系统的人必须首先解释为什么AI系统在默认情况下是危险的。
人工智能可能成为危险的观点源于人工智能系统追求目标的事实,无论这些目标是否与我们真正的目标一致 - 以及我们是否会阻碍。斯蒂芬霍金写道, “你可能不是一个邪恶的憎恨者,他会踩到蚂蚁的恶意,” 但如果你负责一个水电绿色能源项目并且该地区有一个蚁丘被淹,对蚂蚁来说太糟糕了。让我们不要将人类置于那些蚂蚁的位置。“

这是一个让专家在夜间工作的场景:我们开发了一个复杂的人工智能系统,其目标是,以高可信度估算一些数字。AI意识到如果它使用全世界的计算硬件,它可以在计算中获得更多信心,并且它意识到释放生物超级武器以消灭人类将允许它免费使用所有硬件。消灭了人类,然后以更高的信心计算数字。

DeepMind的人工智能研究员Victoria Krakovna(现在是Google的母公司Alphabet的一个部门)编制了一系列“规范游戏”的例子:计算机正在做我们告诉它要做的事情而不是我们想做的事情。例如,我们试图在模拟中教AI生物跳跃,但我们通过教他们测量他们的“脚”在地面上升多远来做到这一点。他们没有跳跃,而是学会了成长为高高的垂直杆并翻转 - 他们擅长于我们测量的东西,但他们没有做我们想要他们做的事情。

一个人工智能玩Atari探索游戏Montezuma's Revenge发现了一个错误,它让游戏中的一把钥匙重新出现,从而可以通过利用故障获得更高的分数。玩一个不同游戏的AI意识到它可以通过错误地插入其名称作为高价值物品的所有者来获得更多积分。

有时,研究人员甚至不知道他们的AI系统是如何被 欺骗的:“代理人发现了一个游戏中的错误。...由于我们不知道的原因,游戏没有进入第二轮,但平台开始眨眼,代理商迅速获得了大量积分(我们的剧集时间限制接近100万)。

这些例子清楚地表明,在任何可能存在人类无法完全理解的错误或意外行为或行为的系统中,一个足够强大的人工智能系统可能会出现不可预测的行为 - 通过一条与我们预期不同的途径追求其目标。

在他2009年的论文“The Basic AI Drives”中 ,曾担任伊利诺伊大学厄本那 - 香槟分校计算机科学教授和可能性研究总裁的史蒂夫·奥莫恩德罗认为,几乎任何人工智能系统都可以预测会积累更多资源,变得更有效率,抵制被关闭或修改:“这些潜在有害行为的发生不是因为它们在开始时被编程,而是因为目标驱动系统的内在本质。”

他的论点是这样的:因为人工智能有目标,他们会有动力采取他们可以预测的行动来推进他们的目标。玩棋牌游戏的人工智能将被激励采取对手的棋子并将棋盘推进到看起来更有可能的状态。

但同样的人工智能,如果它看到一种方法来改进自己的国际象棋评估算法,以便它可以更快地评估潜在的移动,也会这样做,原因同样如此:这只是推进其目标的另一个步骤。

如果AI看到了一种利用更多计算能力的方法,那么它可以考虑在可用时间内进行更多移动,那么它就会做到这一点。如果人工智能检测到有人试图在游戏中关闭计算机,并且它有办法打破它,它就会这样做。并不是说我们会指示AI做那样的事情; 无论系统有什么目标,这些行为通常都是实现这一目标的最佳途径的一部分。

这意味着任何目标,即使是无所事事的目标,例如下棋或生成在线获得大量点击的广告, 如果追求它的代理具有足够的智能和优化能力来识别奇怪的,意外的路线以实现其目标,则可能产生意想不到的结果。

目标驱动的系统有一天不会因潜伏在人们心中的人类而醒来。但他们会采取他们预测会帮助他们实现目标的行动 - 即使我们发现这些行动有问题,甚至可怕。他们将努力保护自己,积累更多资源,并提高效率。他们已经这样做了,但它在游戏中采取了奇怪的故障。随着他们变得越来越复杂,像Omohundro这样的科学家预测会出现更多的敌对行为。

4)科学家什么时候开始担心AI风险?
从计算机早期开始,科学家一直在考虑人工智能的潜力。在他着名的论文中,他提出了用于确定人工系统是否真正“智能化” 的图灵测试,Alan Turing写道:

现在让我们假设,为了论证,这些机器是真正的可能性,并看看构造它们的后果。......试图保持一个人的智能达到机器设定的标准会有很多工作要做,因为一旦机器思维方法开始出现,很可能不会花费很长时间来超越我们微弱的力量。......因此,在某个阶段我们应该期望机器能够控制。

根据他的助手莱斯利彭德尔顿的说法, IJ Good与图灵密切合作并得出了同样的结论。在2009年去世前不久发表的Good未发表的笔记的摘录中,他写了第三人称自己,并指出他与年轻人的不同意见 - 而作为一个年轻人,他认为强大的AI可能对我们有帮助,旧的善预计AI会消灭我们。

[论文]“关于第一台超智能机器的猜测”(1965)......开始说:“人类的生存取决于早期建造的超智能机器。”这些都是他在冷战期间所说的话,他现在怀疑“生存”应该被“灭绝”所取代。他认为,由于国际竞争,我们无法阻止机器接管。他认为我们是旅鼠。他还说“人类可能会按照自己的形象建造deus ex machina。”

在21世纪,随着计算机迅速成为我们世界的变革力量,年轻的研究人员开始表达类似的担忧。

尼克博斯特罗姆是牛津大学教授,人类未来研究所所长,人工智能治理项目主任。他研究的风险对人类,无论在抽象 -问这样的问题,为什么我们似乎独自一人在宇宙中-在具体而言,分析放在桌子上,他们是否危及我们的技术进步。他总结说,AI危及我们。

2014年,他写了一本书,解释了人工智能带来的风险以及第一次做到正确的必要性,得出的结论是,“一旦存在不友好的超级智能,就会阻止我们更换它或改变它的偏好。我们的命运将被封存。“在世界范围内,其他人也得出了同样的结论。博斯特罗姆与伯克利机器智能研究所(MIRI)的创始人兼研究科学家Eliezer Yudkowsky 共同撰写了一篇关于人工智能伦理的论文,该研究所致力于更好地正式表征人工智能安全问题。

Yudkowsky开始了他的AI职业生涯,担心他人提出如何使人工智能系统安全的问题,并且大部分时间都在努力说服他的同行,默认情况下AI系统将与人类价值观不一致(不一定反对)但是对人类道德无动于衷) - 并且防止这种结果将是一个具有挑战性的技术问题。


越来越多的研究人员意识到,当人工智能系统很简单时,就会遇到一些挑战。“'副作用'更可能发生在复杂的环境中,并且代理人可能需要非常复杂才能以危险的方式破解其奖励功能。这可以解释为什么这些问题在过去得到的研究很少,同时也暗示了它们在未来的重要性,“2016 年人工智能安全问题的研究论文结束了。

博斯特罗姆的书Superintelligence对很多人都很有吸引力,但有些人持怀疑态度。华盛顿大学计算机科学教授兼艾伦人工智能研究所首席执行官奥伦·埃齐奥尼(Oren Etzioni)发表评论说:“ 不,专家不认为超智能人工智能是对人类的威胁。” “ 是的,我们担心人工智能的存在风险,”人工智能先驱和加州大学伯克利分校教授斯图尔特拉塞尔以及牛津大学高级研究员,人工智能治理主任艾伦达福的决定评论说道。程序在那里。

人们很容易得出结论,AI风险怀疑论者与AI风险信徒之间存在激烈争斗。实际上,他们可能并不像你想象的那样深刻地反对。

例如,Facebook的首席人工智能科学家Yann LeCun就是持怀疑态度的声音。虽然他认为我们不应该害怕人工智能,但他仍然相信我们应该让人们继续努力,并考虑人工智能的安全性。他写道:“即使人工智能起义的风险很小,而且未来很远,我们仍需要考虑它,设计预防措施,并制定指导方针。”

这并不是说这里有专家共识 - 远非如此。关于哪种方法最有可能将我们引入一般人工智能存在很大的分歧,哪种方法似乎最有可能将我们带到安全的一般人工智能,以及我们需要多快担心这一点。

许多专家都很谨慎,其他人正在推销他们的领域,并在炒作耗尽时将其淘汰。但这种分歧不应掩盖日益增长的共同点; 这些是值得思考,投资和研究的可能性,因此我们在需要时提供指导。

5)如果计算机太强大,为什么我们不能关闭它?
智能人工智能可以预测,如果它让我们感到紧张,我们就会想要关闭它。所以它会努力不让我们紧张,因为这样做无助于它实现目标。如果被问及它的意图是什么,或者它正在做什么,它会尝试评估哪些响应最不可能被关闭,并回答这些问题。如果它没有足够的能力做到这一点,它可能会假装甚至比实际上更笨 - 预计研究人员会给它更多的时间,计算资源和培训数据。

因此,我们可能不知道什么时候关闭计算机。

即使我们最终意识到这是一个好主意,我们也可能会做一些事情,使得以后无法关闭计算机。例如,许多人工智能系统可以访问互联网,这是一个丰富的培训数据来源,如果他们要为他们的创作者赚钱,他们就需要这样做(例如,在股市上,超过一半交易是通过快速反应的AI算法来完成的。

但是,通过互联网访问,人工智能可以通过电子邮件发送自己的副本,这些副本将被下载和读取,或者在其他地方攻击易受攻击的系统。关闭任何一台计算机都无济于事。


在这种情况下,让任何人工智能系统 - 即使是看起来不那么强大的人工智能系统 - 可以访问互联网也不是一个可怕的想法吗?大概。但这并不意味着它不会继续发生。

到目前为止,我们主要讨论了人工智能的技术挑战。但是从这里开始,有必要更多地转向政治。由于AI系统能够实现令人难以置信的功能,因此会有许多不同的参与者在这些系统上工作。

可能会有初创公司,像谷歌这样的老牌科技公司(Alphabet最近收购的创业公司DeepMind经常被提及为AI领跑者),而非营利组织(Elon Musk创立的OpenAI是该领域的另一个主要参与者)。

将有政府 - 俄罗斯的弗拉基米尔普京表达了对人工智能的兴趣,中国已经进行了大量投资。他们中的一些人可能会谨慎并采取安全措施,包括将他们的AI保持在互联网上。但在这样的场景中,我们受到最不谨慎的演员的支配,无论他们是谁。

这是让AI变得困难的一部分:即使我们知道如何采取适当的预防措施(现在我们也不知道),我们还需要弄清楚如何确保所有想成为AI的程序员都有动力采取这些预防措施和有正确实施它们的工具。

6)我们现在正在做什么来避免人工智能的启示?
“可以说,关于AGI [人工智能]的公共政策并不存在,” 今年一篇论文回顾了该领域的现状。

事实是,有希望的方法的技术工作正在完成,但政策规划,国际合作或公私合作伙伴关系的方式却很少。事实上,大部分工作仅由少数几个组织完成,据估计,全世界约有50人全职负责技术人工智能安全。

博斯特罗姆的人类未来研究所发布了人工智能治理的研究议程:研究“制定全球规范,政策和制度,以最好地确保有益发展和使用先进的人工智能。”它发表了关于恶意使用风险的研究。人工智能,在中国人工智能战略的背景下,以及人工智能和国际安全。

机械智能研究所(MIRI)是机械智能研究所(MIRI)在机械智能研究所(MIRI)工作最长的组织,该研究所优先研究设计高度可靠的药剂 - 人工智能程序,我们可以很好地预测其行为,确信它们是安全的。(披露:MIRI是一个非营利组织,我在2017年和2018年捐赠了它的工作。)

Elon Musk创立的OpenAI是一个非常新的组织,不到三年。但研究人员对人工智能安全和人工智能能力研究都有积极的贡献。2016年的研究议程阐明了“ 与机器学习系统中的事故预防相关的具体开放技术问题 ”,研究人员已经提出了一些安全AI系统的方法。

字母的DeepMind,在这一领域的领导者,具有安全团队和技术研究议程这里概述。“我们的目的是确保未来的人工智能系统不仅仅是'希望安全',而且是强大的,可验证的安全性,”它总结道,概述了一种强调规范(设计目标良好),稳健性(设计系统)的方法。在不稳定条件下的安全限制)和保证(监测系统并了解他们正在做什么)。


还有很多人正在研究更多当前的人工智能伦理问题:算法偏差,现代机器学习算法对小变化的鲁棒性,以及神经网络的透明度和可解释性,仅举几例。其中一些研究可能对预防破坏性情景有价值。

但总的来说,该领域的状况有点像几乎所有的气候变化研究人员都专注于管理我们今天已经面临的干旱,野火和饥荒,只有一个小小的骨架团队致力于预测未来还有50名左右的研究人员全职工作,想出一个扭转局面的计划。

并非每个拥有主要人工智能部门的组织都有一个安全团队,其中一些组织的安全团队只关注算法的公平性,而不是高级系统的风险。美国政府没有人工智能部门。

该领域仍有许多悬而未决的问题 - 其中许多问题可能会让人工智能看起来更加可怕,或者更不那么严重 - 没有人深入挖掘。

7)这比气候变化更能杀死我们吗?
有时看起来我们在21世纪从各个方面都面临着危险。气候变化和未来的人工智能发展都可能是影响我们世界的变革力量。

我们对气候变化的预测更加自信,无论是好是坏。我们对地球将面临的风险有了更清晰的认识,我们可以估计人类文明的成本。预计它们将是巨大的,可能会使数亿人丧生。受害最深的人将是发展中国家的低收入人群 ; 富人会发现它更容易适应。与人工智能相比,我们对制定应对气候变化所需的政策有了更清晰的认识。

 
人工智能的关键进展在时间表 上存在激烈的分歧。虽然人工智能安全专家同意安全问题的许多功能,但他们仍然在自己的领域向研究团队提出诉讼,他们对一些细节不同意。对它的严重程度以及糟糕的可能性存在很大的分歧。只有少数人在AI预测中全职工作。当前研究人员试图确定的一个问题是他们的模型以及关于安全方法将会是什么样的剩余分歧的原因。


人工智能领域的大多数专家认为,与气候变化相比,人类灭绝的风险要大得多,因为对人类存在风险的分析家认为,气候变化虽然是灾难性的,但不太可能导致人类灭绝。但是其他许多人主要强调我们的不确定性 - 并强调当我们快速致力于强大的技术时,仍有许多尚未解决的问题,聪明的一步就是立即开始研究。

8)AI是否有可能是仁慈的?
人工智能安全研究人员强调,我们不应该假设AI系统默认是仁慈的。他们将拥有他们的训练环境所设定的目标,毫无疑问,这将无法包含整个人类价值观。

当人工智能变得更聪明时,它可能会自己弄清楚道德吗?研究人员再一次强调它不会。这并不是“搞清楚”的问题 - 人工智能会理解人类实际上非常重视爱情,满足感和幸福感,而不仅仅是谷歌在纽约证券交易所的数字。但是人工智能的价值观将围绕它最初建立的任何目标系统构建,这意味着如果它的设计不是以这种方式开始的话,它就不会突然与人类价值观保持一致。

当然,我们可以构建符合人类价值观的人工智能系统,或至少人类可以安全地使用它们。这最终是几乎所有拥有人工综合情报部门的组织都在努力做到的。人工智能的成功可以让我们同时获得数十年或数百年的技术创新。

“如果我们成功,我们相信这将是有史以来最重要和最广泛有益的科学进步之一,” Alphabet的DeepMind介绍说。“从气候变化到急需改善医疗保健的需求,太多问题都会受到缓慢进展的困扰,其复杂性压倒了我们寻找解决方案的能力。随着人工智能成为人类聪明才智的倍增器,这些解决方案将会实现。“

所以,是的,人工智能可以分享我们的价值观 - 并为了好的方式改变我们的世界。我们首先需要解决一个非常困难的工程问题。

9)我真的很想知道:我们有多担心?
对于那些认为担心过早且风险过度的人来说,人工智能的安全性正在与其他优先事项竞争,这些优先事项听起来有点科幻 - 并且不清楚为什么AI应该优先考虑。对于那些认为所描述的风险是真实且充实的人来说,我们投入如此少的资源来开展这些风险是令人愤慨的。

虽然机器学习研究人员对炒作持谨慎态度,但也很难避免这样一个事实:他们使用非常普遍的技术完成了一些令人印象深刻的令人惊讶的事情,而且看起来并不是所有的低调果实都有被选中了。

在12月初的一次重要会议上,Google的DeepMind破解了生物学中一个长期存在的问题:预测蛋白质如何折叠。“尽管在我们能够对治疗疾病,管理环境等方面产生可量化的影响之前还有很多工作要做,但我们知道这种潜力是巨大的,”它的公告总结道。

人工智能看起来越来越像一种技术,它会在它到来时改变世界。在许多重大的AI组织的研究人员告诉我们,它会像发射火箭:这是我们必须做对我们打之前,因此,似乎迫切去上班学习火箭技术“走出去”。无论人性是否应该害怕,我们一定要做功课。

鲜花

握手

雷人

路过

鸡蛋
我有话说......