人工智能的未来,人工智能

作者:内地娱乐

一开始以为是一部爆米花电影,但看完后感受远远超出预期。

前一阵写了一篇文章稍微提及人工智能,又看到自然杂志上一篇Stuart Russell点评《生命3.0》一书的文章,正好暗合对人工智能未来的思考。但是无论是我还是Stuart Russell,我们的观点都不够客观。因为评论者自己也说,跟本书的作者有相同的利益关系。2014年,Stuart Russell和物理学家Stephen Hawking(斯蒂芬·霍金)以及Frank Wilczek(弗朗克·韦尔切克)一起在《赫芬顿邮报》上发表了文章《人类对超级智能机器的盲目乐观》。文章表面上是点评Wally Pfister的反乌托邦AI电影《超验骇客》,实际是籍此呼吁AI圈严肃对待人工智能的风险。因为是同一战线的战友,所以观点难免摆脱不了自身的局限以及偏见吧!当然乐观派可以找到很多反驳的理由。

图片 1

2017年是人工智能的元年,巨头们大谈AI,AlphaGo大放异彩,Google将『移动优先』理念变更为『AI优先』,百度把老底都压在人工智能这个筹码上;但也开始有人反思,担忧人工智能的发展会给人类带来灾难。

我想所有的科学技术工作者都深信不疑:科技可以创造更美好的未来!就像我之前所说的,人类在科技发展史上确实无意中打开了很多“潘多拉魔盒”,但是这些创造我们只称之为物体,并没有生物学上的意义。就像一把枪一样,保护别人或者杀死别人,只取决于使用者的意志。我看知乎上有很多人把人工智能也比喻成一把枪,我觉得这个比喻是十分不恰当的。我们现在讨论的人工智能,绝不是现在我们所看见的人工智能。在这一点上来说,现在的人工智能一点也不智能。我们所讨论的人工智能,是在遥远的未来可能存在的一种具有自我意识的物体。具有自我意识的物体已经不能被认为是“一把枪”,而是某种与碳基生命相对应得另外一种生命形式——硅基生命。

真正的人工智能可能毁灭这个世界——但前提是人工智能可以被实现。

几乎毫无疑问,人工智能将会以大家难以想象的速度进化,就像互联网在这十年里超过人们想象发展一样。假如AI真正开始思考,懂得创造,会自我学习,自我改造,那么未来人来智慧的天花板,可能仅仅是人工智能的起点。

此书书名意指演化史上的第三个阶段。生命几乎用了40亿年来完善硬件(躯体)和软件(生成行为的能力)。又过了10万年,学习和文化使人类能够适应并控制自己的软件。即将来临的第三阶段,生命的软件和硬件都将能够被重新设计。这听上去像是超人类主义——主张重新设计人体和人脑——但Tegmark的关注点是AI,即通过外部仪器补充心智能力。


即使电影中人们及时地发现这个问题,并阉割掉拟生人创造的能力,但人们仍然无法避免,几十年前的初代机,在一个人类遥不可及的外太空中,发展出毁灭人类自己的能力。可能现实中的版本是一个AI的缔造者在发明超级AI的那一刻,AI聪明的意识到自己与人类天生敌对的本质后就聪明地将自己隐藏在网络中的某个节点中,积蓄实力等待给予人类致命一击。

第三阶段,在《人类简史》最后部分对未来的展望中,仿生工程的崛起,机器与人类的结合,将是机器对人类社会的伦理道德最初的冲击,将会又是一轮对诸如生命,灵魂,意识的探讨(《攻壳机动队》便是这是这类影视作品典型的代表)。

原文By Paul Ford February 11, 2015

以科技进步的速度,说不定我有生之年还能看到世界末日。

碳基生命花了40亿年进行准备,而智人只用了10万年就完成了认知革命,农业革命,工业革命。而这个时间点极有可能是亚当和夏娃偷吃了禁果而拥有自我意识的时候,一旦拥有这些,智人的进化速度将呈指数级增长。我想人工智能也会有这个过程,我们假定硅基生命的准备过程在一千年(事实上肯定会更短),根据这一比例计算在人工智能拥有自我意识后,大概需要九天左右的时间就可以达到甚至超越人类的智力水平,实际情况肯定更快,最多也会在几小时内完成。

翻译By Lucent Moda July, 2017

© 本文版权归作者  xiezefan  所有,任何形式转载请联系作者。

计算机先驱阿兰·图灵1951年提出了一种可能性——我们人类再强大也只能在AI面前相形见绌,表达了制造比自己聪明的东西会引起的普遍不安。仅仅靠图灵测试来判断一台机器是否有意识是非常单一方式而且远远不够的。我们所预想的意识只是想让机器模仿人类的思维方式,假设某个智商远高人类的外星人没有通过图灵测试,我们就可以否定他的智商和自我意识吗?


控制论奠基人Norbert Wiener于1960年写道:“我们最好非常确定赋予机器的意图是我们真实期望的意图。”或者,按Tegmark的说法,“现在不知道如何给一个超级智能的AI灌输一个既不会定义不明又不会导致人类灭亡的终极目标。”在Stuart Russell看来,这既是一个技术问题,也是一个哲学问题。

信任计算机去控制复杂的系统。

在《我,机器人》中,即使有著名的机器人三大定律,却仍然无济于事。一方面我们的语言可能存在潜在逻辑上的漏洞;另一方面我们对人工智能的思维方式一无所知,我们更加不知道他们的伦理观和道德观,他们以何种方式来理解我们的语言。

几年前我和一个创业的朋友喝咖啡。他刚满40,生病的父亲和背部疼痛让他感觉自己快要被生活压垮。 “别笑话我,“,他说, ”我可是指望着奇点呐。“

《经济学人》杂志简单地叙述过这个重要的问题:“在地球上引入第二个智能物种,影响深远,值得认真思考”。

我朋友在科技领域工作;他看到了更快的芯片处理器和网络带来的巨大变化。他相信,在他中年时,机器的智能会超过人类——一个被未来学家称之为奇点的时刻。一个友善的超级智能以更快的速度分析人类的基因,解开青春不老的秘密。至少,它可能知道怎么治好背部的疼痛。

早期智人似乎不太喜欢和自己相似的近亲,因此在智人的崛起过程中,诸如尼安德特人等近亲逐渐绝迹,一些证据都指向智人是罪魁祸首。就连现在种族主义都仍然存在,更别说要智人再去承认另外一个智人自己创造的智能物种。即使人类愿意和平共处,我们也不知道人工智能的想法。这不就是另外一种“黑暗森林”。想到最近才看过的《猩球崛起》电影,把人类创造出来的智能大猩猩换成人工智能不要太合适。

可是,如果它不这么友善呢?领导牛津大学人类未来研究所的哲学家Nick Bostrom,在《Superintelligence》描述了这样一种场景,引发了对人工智能的未来的大量讨论。假设有有一个名字叫做“回形针最大化”的机器,它的目的就是尽可能的制造更多的回形针。现在,让我们再想象一下,这个机器变得无比的智能。为了达到目的,他可能制造出一种新的,更有效率的回形针生产设备——直到,它将所有的东西都变成回形针,如同米达斯把一切都变成黄金。

目前提出警惕人工智能的有霍金、比尔盖茨、马斯克等,结合《生命3.0》作者Tegmark也是物理学家,似乎物理学家们普遍担忧。李开复、扎克伯格等一批科技公司领袖普遍看好人工智能的未来。每个人的背后利益都不一样,因此对事物的思考也不同,不得不说人工智能所能创造的财富超乎想象。

你也许会说,不用担心,只需要编程让它只制造一百万个回形针就停止了啊。但是,假如它完成之后决定检查一下工作呢?计数是否准确?无疑它需要变得更加聪明。这个超级智能的机器制造某种还未发明的、原始计算材料(姑且叫它“计算单元”),然后用它来检查每一个疑问。每一个疑问引发另外的疑问,直到整个地球都被转化成这种“计算单元”,而不是那一百万个回形针。

科学家帕特森在测量地球年龄的过程中无意中发现含铅汽油危害的铁证,石油商们的第一反应是对他威逼利诱,还雇佣了权威科学家为含铅汽油辩解。

其实,Bostrom并不认为回形针制造器会真的出现。这是一个思想实验:用来表明无论多么精心设计的系统都无法约束极端的机器智能。不过他确信,超级智能肯定会产生,有可能会很棒,Bostrom认为也有另外一种可能:它不再需要人类。或者做了一些事情,毁灭了整个地球。第八章的标题是:默认的结局是毁灭吗?

http://www.360doc.com/content/15/0121/06/45254_442462927.shtml

如果你觉得很可笑,这很正常。批评者诸如机器人先锋Rodney Brooks评论道,当我们说计算机思考或者正在变得聪明时,这些担心AI会偏离正常轨道的人对计算机在做什么有所误解。从这个角度来看,Bostrom所描述的超级智能会在遥远的未来,也许永远都不会出现。

不是阴谋论,人工智能的利益远超石油,其中是不是也会有财团在暗中操作。无论怎么样,人工智能的发展趋势不可能随着一些人的意志而改变,就像我们连智能手机都抗拒不了。更何况对未来社会,人工智能所提供的便利远超智能手机。

但依然有很多聪明而有见地的人通知Bostrom的观点,并表示忧虑,这又是为何呢?

是走向准乌托邦还是走向毁灭?本书作者并没有给出答案,全凭读者自己思考。

自由意志

机器可以思考吗? 这个问题从一开始就给计算机科学蒙上了一层阴影。阿兰图灵在1950年提出了一个观点:可以像教小孩一样教机器。1955年,LISP语言的发明者,约翰 · 麦卡锡,发明了”人工智能“这个词。60年代和70年代,AI研究人员用计算机来识别图像、在不同语言之间进行翻译,识别自然语言中的指令,而不仅仅是代码,与此同时,计算机最终发展出可以交谈和思考的能力——进而变得邪恶——的看法开始进入主流文化中。不提老生常谈的《2001,空间奥德赛》的Hal电脑,在1970年的电影《巨人:福宾计划》,展示了一个巨大的闪闪微光的主机计算机将整个世界带入核战的边缘。13年以后,星际大战游戏也探索了同样的主题。1973年的电影《西部世界》中,机器人发疯了,随后开始了屠杀。

当AI的研究和高远的目标遥不可及的时候,AI领域的投资大幅缩水,开始了“漫长的冬天”。即便如此,智能机器的火炬在80年代和90年代被诸如科幻作者Vernor Vinge,研究学者诸如机器人专家、计算机视觉专家Hans Moravec,以及企业家兼工程师Ray Kurzweil等接力而向前发展。Vinge让奇点这个观点变得流行。Kurzweil1999年出版了《精神机器的时代》。图灵提出类人智能的假设,而Vinge、Moravec、Kurzweil想的更加深远:当一个计算机能够独立找到方法达到目标,很有可能它具备了内省的能力——修改自己的软件让自己变得更加智能。说白了,这样的计算机能够自己设计硬件。

像Kurzweil所描绘的那样,这将是一个美好新时代。这样的计算有足够的insight和耐心(用皮秒来计量)来解决纳米科技和空间飞行的难题;他们可以提高人类的生活水平,可以让我们把意识上传成为一种永生的电子形式。智能可以在整个宇宙中扩散。

对于这种阳光乐观派,亦存在完全相反的观点。霍金警告说,由于人类无法和高级AI竞争,这 “会是人类种族终结的魔咒)”。在阅读了《Superintelligence》之后,埃隆马斯克发推文说,“希望我们不是数字超级智能的生物启动加载器。不幸的是,越来越有这种可能性。” 马斯克接着给未来生活研究所捐助了一百万美金。和Bostrom的研究中心不同的是,这是一个“致力于降低全人类生存风险”,其中包括来自于 “开发人类水平的人工智能”。

现在还没有任何证据表明超级智能的存在。事实上,对如何达到通用目的的人工智能,几乎没有什么进展,甚至连如何达到目标,也没有清晰的路径。近期AI方面的发展,包括Apple的Siri助手和谷歌的无人驾驶汽车, 都揭示出当前技术存在严重的局限。在遇到之前从来没有遇到过的问题的时候,两者都束手无策。人工神经网络通过学习可以识别照片中的猫),但是在此之前,需要经过上万个例子的学习,并且和小孩相比,依然不够准确。

这也是为什么有许多人,比如Brooks(iRobot和Rethink Robotics的创始人),表示出怀疑。和早期计算机的能力相比,现在的计算机可谓非常令人感到惊讶,即便如此,计算机可以识别出图片中的猫,但是因为机器没有意志,它不知道猫到底是什么,也不知道图片中正在发生着什么,也不具备许多其他人类所独有的洞察力。按照这个观点来看,也许可以达到机器具有智能的地步,但是还需要做的工作远超Bostrom的想象了。假设即便发生了,也不意味着这就是末日审判。从当前的AI发展推导出未来的超级AI,“如同看到热效率提升的内燃机就推出曲速引擎唾手可得的结论一样荒谬”, Brooks在近期在Edge.org)上写到。 至少数百年之内,没有必要担心“存在恶意的超级智能”。

保险策略

超级智能的崛起可能在遥远的未来,但因此冒风险就有点不负责任了。加州大学伯克利计算机科学教授,斯图尔特 罗素(Stuart J.Russell)表达了和Bostrom同样的担心。罗素和Peter Novig(Kurzweil在谷歌的同事)一起合著了20年来的AI领域的标准教科书《人工智能:一种现代方法》。

“有很多本应非常聪明的公众学者对此毫无头绪”,罗素告诉我,并指出,在过去的十年中, AI的发展极为巨大。公众也许会从摩尔定律的角度来理解AI的发展(更快的计算机可以做更多的事情),实际上,近期AI的工作更多的是更底层的基础研究,使用类似深度学习这样的技术给计算机增加对周遭世界的自动感知。

鉴于谷歌,Facebook和其他公司正在积极创造一种聪明的,“会学习的”的机器,他说,“我想说的是,我们不应该做的事情之一就是全力以赴研发超级智能,而没有去考虑其潜在的风险。这显得有点狂热了。” 罗素做了一个比喻:“这就是像是核聚变试验。如果你问一个核聚变研究员他们在做什么,他们会说他们的工作就是控制。如果你需要无限制的能量,那么你需要控制核聚变反应。” 同样的,如果你需要无限制的智能,那你最好把计算机和人类的需求利益保持一致。

Bostrom的书中建议现在开始研究超级智能和人类利益关系。一个超级智能如同上帝一样,可是他是充满愤怒的还是充满爱意? 这取决于我们(也就是,工程师们)。如同父母一样,我们必须给孩子设定价值观。并且不是任意价值观,而是哪些符合人类利益的价值观。基本上,我们是在告诉一个神我们应当怎样被对待。那么,如何做到呢?

Bostrom的设想主要建立在一个叫Eliezer Yudkowsky的思想家提出的“统一推理意志”之上——也即是我们所有人心中更好的自己。我们希望,AI会带给我们富有、欢乐、充实的人生:解决背部的疼痛,告诉我们如何去火星旅行。并且,由于我们无法真正就某一件事情达成一致,有时候我们需要AI帮我们做出决定——对人类全体利益最有利的决定。 那么,我们应该怎样把这些价值观编程到超级智能中呢?用什么样的数学公式来定义它?这些都是研究者们应该着手去解决的问题,并且是我们这个时代最核心的任务。

对普罗大众来说,没有必要因为机器人的可怕而辗转失眠。我们当前还没有任何技术能够达到人工智能。也即是为什么一些超级大公司深度投资研发智能计算机;一个真正的AI可以使得其中任何一家公司获得难以想象的优势。不过,他们也应当了解其中的劣势并且找到规避的办法。

这点闹人的建议是基于一封在未来生活研究所的官方网站的公开信)(没有宣称AI战争的来临)。信中号召在如何收割AI的收益并避免潜在瑕疵方面投入更多的研究,而不是警告人类的生存灾难。这封信的签名有不仅来自AI外行如霍金、马斯克和Bostrom等人的签名,还有知名计算机科学家(包括顶级AI研究员Demis Hassabis)。你可以清楚看到他们从哪里来。毕竟,如何他们创造了一个不认同人类价值观的AI,那就是说,他们还不够聪明,无法控制他们自己的创造物。

保罗 福特, 自由记者,居于纽约。2014年3月、4月报道过比特币。

Lucentmoda, 软件工程师,自由翻译者,ever young, ever weeping.
联系翻译者请电邮lucentmoda@gmail.com

翻译自MIT Technology Review,链接:
https://www.technologyreview.com/s/534871/our-fear-of-artificial-intelligence/

版权声明:
著作版权@MIT Technology Review.
翻译文字版权由Lucentmoda保留。可以自由分享,转载需注明链接。

本文由韦德娱乐游戏发布,转载请注明来源

关键词: