奇点来临(txt+pdf+epub+mobi电子书下载)


发布时间:2020-06-05 18:59:33

点击下载

作者:[英] Tony Thorne MBE 索恩

出版社:人民邮电出版社

格式: AZW3, DOCX, EPUB, MOBI, PDF, TXT

奇点来临

奇点来临试读:

前言

“人工智能”是一个极其重要的主题,它对我们所有人都有着深远影响,但最终结果很难预料。本书采用了收集各方最新资讯的形式,面向各年龄段的普通读者。与此同时,还会“不断更新”,并在推出相关新材料后使用这些材料进行修订。

另外,作者的网站(www.tonythornembe.com)会更新一些最新的资讯。前几期的读者若想先睹为快,可通过作者网站(www.tonythornembe.com)的“联系方式”链接或者向出版方发送电子邮件(etceterapress@aol. com),视情况选择合适的方式免费获取最新版电子书(.pdf格式)。

本书的作者是一位难得一见的思想家,其著作将这一点体现得淋漓尽致。致谢

本书中的其他评论部分,若非出自作者/编者之手,则来源于维基百科、众多国际英文报纸、BBC、雷 · 库兹韦尔发布的人工智能定期简讯、探索杂志及Linked-In人工智能论坛。此外,作者还得到很多其他鼓励和帮助,不胜枚举!章节概要

第1章讨论了什么是奇点。介绍了历史、计算机、程序(代码)生成器、学习软件、机器人、AI Now、I.Q.、AGI、指数开发、ASI、人类AGI和ASI、可能结果、安全性、最新的阿西莫夫三定律、可预防性灾害以及信仰或机会。对于某个无法避免或即将发生的奇点,一些专家可能认为它是全新黄金人类时代的开端,而在另外一些专家眼中则是巨大灾难——到底是什么,由你来决定。

第2章是一些专家点评,包括科学家、科幻作家、未来学家和工程师(即应当了解相关领域的各类人员)引述。

第3章是关于奇点理论和研究的最新发展,涉及先进AI研究及其未来发展趋势的最近新闻公告。

第4章摘录了作者的预言小说,介绍作者早期作品透露出的相关选材。

第5章给出了详细的阅读清单,针对奇点和人工智能相关的图书,给出相关摘要、笔记及很多点评。

第6章介绍人工智能领域的最新进展,包括阿法狗与李世石的围棋大战等。第1章什么是奇点再过多久,十年吗?

或许,“奇点”最贴切的描述为单向事件,一旦发生将不可逆转。奇点这个术语最初是指一旦物质接近事件视界必将卷入黑洞。就“物质”而言,可以假设为小行星、行星、恒星、气体云乃至小星系并加以了解,无一例外。“事件视界”是指地心引力极强,即使光也无法逃脱。因此,我们永远都看不到黑洞,但可以观察测量黑洞的外部效应。对于不了解“黑洞”的人而言,黑洞是土崩瓦解的大质量恒星;黑洞坍缩,表面重力极强,足以阻止可见光子逃逸。换句话说,要想逃逸,其速度必须大于光速。“逃逸速度”是指成功逃脱任意特定引力场引力所需的最小速度。地球的逃逸速度仅为大约40234千米/小时;而光的传播速度超过299338千米/秒。顺便说一下,如果地球陷入某个巨大黑洞(例如,在我们所处的银河系中心发现的黑洞),那么势必会碎成直径几厘米的碎片,但质量不变!

下面以地球为例进一步探讨(并非含沙射影),我们可能会将严重的商业飞机失事事件视为奇点,但渡轮沉没却并非如此。生命的诞生似乎也符合标准。

既然已经了解奇点现象的概念,大家可能很想知道我们究竟会在本书的相关内容中提出怎样的论点。事实上,解答这个问题的唯一方法就是继续阅读!

有一点可以十分肯定:奇点临近,而且日益逼近。或许,目前大家可能还对此一无所知,但很快就会明白。很多科学家认为,它对人类带来的威胁远非全球变暖乃至核战争所能及。另外一些人似乎认为,在本书出版短短10年后,这种危害就会开始崭露头角;这意味着,最早在2024年就会显现。

许多未来学家及少数权威人士认为,某些因素甚至会更早显现。据他们预测,很快发达国家的普遍失业率将至少高达60%,未来形势甚至会更加严峻。一旦发生这种情况,发达世界的经济形势将会发生重大改变。

我要特别强调的是,这个奇点将作为目前发展的人工智能(Artificial Intelligence,AI)技术的第二阶段显现。目前日常生活中发展的这些非凡的智能技术仅仅只是我们许多人近期经历的前兆。我们可以构思创造更加智慧的智能手机,乃至更出色的iPad和平板电脑。我们的小装置和设备用途越来越多,而且越来越智慧,它们懂的比你懂的还要多,甚至精通你目前所不了解的领域!

本书探讨了未来将取得的一些令人难以置信的智能开发成果,以及在这之后的其他成果。首先是强人工智能(Artificial General Intelligence,AGI),接着是超级人工智能(Artificial Super Intelligence,ASI)。后者必将成为奇点,将首套智能软件算法下载至内存足够大的并行计算机和芯片。这项史无前例的活动令人震惊,后果是好是坏,仍无法预知,但都会对我们的生活方式造成翻天覆地的影响。

在进行深入了解之前,我先简单介绍一下我的个人背景。我年轻时首次接触仿人机器人,在那段时间里,我首次观看了Fritz Lang执导的无声电影《大都市》(Metropolis)(http://www.imdb.com/title/tt0017136/)。不久之后,我又阅读了Karel Capek所著的《罗素姆万能机器人》(R.U.R.)(http://www.umich.edu/~engb415/literature/pontee/RUR/ RURsmry.html)。Karel是使用“机器人”一词的第一人;然而,我很快意识到,他的故事其实主要围绕机器人和人工生物创造,而不是我们眼下所认为的大眼机器人。

随后,1956年,上映了一部里程碑式的电影《禁忌星球》(Forbidden Planet),其中首次出现强人工智能(AGI)机器人Robby。这部电影在某种程度上有着莎士比亚名剧《暴风雨》(The Tempest)的影子,其中提出的预警信息与我们的未来息息相关(http://en.wikipedia.org/wiki/ Forbidden_Planet)。

不久以后,有一天我心情不错,看到一本旧的美国科幻杂志《激动人心的奇迹故事》(Thrilling Wonder Stories)(http://en.wikipedia.org/ wiki/Wonder_Stories)。

那时对于我而言,相当于敞开了我对机器人、外星人以及很多现实世界奇迹的视界和想象!在那以后,我发现自己完全被吸引了,成为一个狂热的科幻迷。我对科幻文学迷恋至深,甚至创立了粉丝会。想必是受到《地球停转之日》(The Day the Earth Stood Still)(http://www.imdb.com/ title/tt0043456/)原型的强人工智能(AGI)机器人的影响,一位成员还用Meccano玩具动手构建了一款机器人,而且引发了当地新闻界的关注。

顺便说一下,当时我还发表了生平第一篇文章,甚至还得到了稿费,尽管这篇文章讲述的是时间旅行历险,与机器人毫无关系。不久之后,我前往伦敦参加了科幻迷大会。这是我第一次参加此类会议,期间结识了很多其他科幻小说作家,并与他们成为朋友,但这是另外一码事。

多年以后,也就是20世纪70年代末,我将当时海岛小镇上刚刚出现、绝无仅有的几台家用计算机之一买回了家。在掌握了这台Apple II的使用方法之后,我又买了几台计算机,并开办了培训学校而且相当成功。此后,由于具备扎实的编程知识,我参与了半智能编码软件的开发工作,也就是日后的第一代C.O.R.P.,并继续开发了更加高级的企业系统。两个系统均由美国软件天才Alex Maromaty首创,我购买了后者的所有权,并着手进一步开发。开发中又增添了很多更有趣、更有效的功能和附件,如彩色文本和屏幕。

我们将这些开发成果称为“程序(代码)生成器”,两者均可自行生成并设计代码。这是人工智能软件所需的基本功能,旨在确保其按预期运行并进行学习。编写代码,接着运行代码确定结果,从中学习经验,进而自行编写更出色的代码并再次运行,这套算法正是“学习软件”。换句话说,这套算法可以分析每次生成的代码,然后对代码本身做出各种必要的调整,接着再次运行,周而复始。当然,整个过程速度极快,因为我们的主角是机器。

我曾运用企业系统从零开始成功开发出各类业务软件程序。其中,复式簿记程序相当出色,销量十分可观。顺便说一句,早前我还编写过一套算法,可以控制会展期间用于吸引关注的简易机器人。运行效果不错,但这款机器人还远远不够智能,需要通过电缆连接控制计算机。

再看看即将面临的人工智能奇点,想想我们人类未来如何开展日常工作和生活,除了强调我们自身的存在性以外,从定义的角度而言,CGI机器人也可以履行这些职能。

我们都知道,人类大脑大约有1000亿神经元和大约百万亿个连接,每个神经元都能以大约200次/秒的速度完成各类运算。这些计算相当于每秒完成大约20万亿次大脑“软件”计算过程,这一数字相当庞大,经过数千年的文明进步,人类的计算能力得到了大幅提升。另外,尽管计算速度较慢,但哪怕是目前最先进的笔记本电脑也不及人类大脑所表现出的巨大计算能力。

即便如此,据很多科学家预计,自本书完成之日开始计算,大约9年后首款人工计算机大脑必将问世。根据目前处理数据的方式,人工计算机大脑预计能够达到上述人类大脑计算能力的一半。然而,根据所谓的“摩尔定律”,此后仅需13或14个月,这款计算机大脑硬件将与我们人类大脑的计算能力持平。若不出所料,如能在其中下载必要的智能软件,必将可以实现强人工智能(AGI)。这是一个引人深思的结论,很多科学家也都做此预测,如果最终成果还可以自动产生意识(具有自我意识),那么联合国很可能不得不开始思考是否需要就非人权宪章的细节展开辩论!乍听起来像是一个科幻迷的想象,但实际上这不含任何虚构成分!

我们可以通过现代化发展的步伐进行推测,仅需10年乃至更短的时间,相关硬件、类脑体系结构就可能准备就绪,然而智能软件能够实现这一目标吗?它完备吗,有多完备?最重要的是,它安全吗?这些都是我们未来需要重点考虑的问题,但首先要审视一下目前面临的局面。计算机比人聪明?

目前共有两款智能计算机大脑,它们的能力会让那些最强烈的怀疑论者感到吃惊。它们就是IBM深蓝(Deep Blue)和沃森超级计算机(Watson)。前者可以在国际象棋游对局中击败任何人类选手,甚至国际象棋世界冠军Gary Kasparov也在不久之前两次败北。沃森计算机甚至在难度极大的电视游戏《危险边缘》(Jeopardy)中击败最聪明的人类选手,在这场游戏中,对弈双方同时回答指定问题,这比在同类百万美元级电视节目中选择正确的多选答案要复杂得多。

然而,这两台计算机真的会思考吗?它们肯定会思考,对吗?在蓝色巨人参加国际象棋比赛的过程中,每走一步,都会查询各种走法,然后选择最佳方法走出下一步,循环往复,直至达到最理想的终极效果。蓝色巨人的完成速度比任何一位人类国际象棋选手都要快很多。而沃森计算机在参与游戏的过程中,只会查询关于指定问题的各种可能事实,接着重复研究相关问题,缩小选择范围,直至找到或生成最适合的问题答案。整个过程均以极高的速度完成,任何一位人类对手的大脑都不可能模仿。

人类大脑其实也会经历同样的过程,只是没有那么准确、没有那么快,也不会访问如此庞大的数据库。虽然如此,但在我看来,这似乎仍然是一种“思维模式”。怀疑论者倾向于对此进行重新界定,将思维模式局限于只有人类可以完成的工作,无论创造多少发展成果,他们都只是一味否认。尽管不承认,但他们必定很快会发现,只有人类可以完成的工作将日益减少。那又怎么样?

大约每隔一年半,计算机芯片的计算能力就会翻一番,间隔时间还会不断快速缩短。另外,外观也会持续缩小;因此,需要的能源越来越少,但运行速度越来越快。同样,著名的摩尔定律已得到证实,这一状况有望继续发展,直至芯片接近分子大小,处理速度接近光速。这个过程仍有很长一段路要走,但很多科学家估计,在未来10年内,我们必将见证第一款“计算能力”能够与人类媲美的计算机大脑的诞生,其发展速度将呈指数级增长而非线性增长。

我们可能很难满足于每次增长一倍这样的成果,但不妨举个例子,帮助我们更有效地把握概念。假设折叠一张纸。每次折叠时,得到的厚度都将是原来的两倍。如果不断折叠,最终小到难以想象,得到的厚度将相当于地球到月球距离的一半。那么,只需要再折叠一次,就可以到达月球!同样,技术的跨越式发展似乎不可想象,而且步伐将会越来越大。

在这个发展周期的之后的几年中,计算机大脑的计算能力将会极为迅速地与人类大脑持平。3年前,计算能力仅为所需能力的大约1/8,一年前这个数字是1/16。而在最后一年,则会再次翻番,直接追平人类大脑的计算能力,而且运算速度势必会快得多。这就是指数级增长的真实写照。

届时,我们将全面实现强人工智能(AGI)。如果计算机下载这款软件,那么运算能力将至少达到当时最聪明的人类的同等水平,也就是“智商(IQ)”高达130的天才。

根据Stanford-Binet测试结果,正常IQ范围为85到115,全球大约仅有1%的人类的IQ超过135。

1926年,心理学家Catherine Morris Cox博士发表了研究论文“最杰出的人物(The most eminent men and women)”,其中对生活在1450~1850年的杰出人物进行了模拟智商测验,估算他们的大致IQ(http://www.cse. emory.edu/sciencenet/mismeasure/genius/research04.html)。

IQ结果主要取决于17岁之前在各方面所表现出的聪明才智。

另外,Cox博士发现,不同领域的顶级天才的平均IQ似乎差别很大:领 域研究样本数平均IQ哲学家22173科学家39164科幻作家53163政治家43159音乐家11153艺术家13150军人27133

根据Cox的调查,我们还可能会发现一些知名天才学者的IQ,大家可能对他们的名字耳熟能详,真的十分有趣:姓 名职 业IQ估值鲍比·菲舍尔职业棋手187伽利略天文学家/物理学家185笛卡尔哲学家/数学家180康德哲学家175达尔文自然学家165莫扎特作曲家165爱因斯坦物理学家161乔治·艾略特作家160哥白尼天文学家160林布兰画家155

需要补充的是,当今IQ最高的人当属Kim Ung-yong(金雄鎔)——一位48岁的韩国人。金雄鎔从前是一位神童,IQ高达210,这使他成功跻身吉尼斯世界纪录大全。金雄鎔在出生后不久就展现出惊人的智力水平:4个月学会说话;6个月流利交谈;两岁阅读韩语、日语、德语和英语文章。4岁学龄前就已经名声在外,在日语电视节目中解答复杂的微积分问题。自很小的时候开始,金雄鎔就开始写诗,而且是一位令人称奇的画家。3~6岁就读于韩国汉阳大学,成为一名物理学旁听生。年仅8岁就以天才少年的身份参观美国国家航空航天局(NASA)实验室,并在那里从事了10年的研究工作。另外,他还获得了美国科罗拉多州立大学的物理学博士学位。

令人遗憾的是,到了1978年,金雄鎔开始明显感到倦怠并重归故土。令人惊奇的是,他选择了非常普通的土木工程职业,而后选择在忠北发展公司的企业规划管理部工作。之所以说到这些,是为了让大家认识到:真正的强人工智能(AGI)应当与金雄鎔的能力相等乃至超越他,机器人不会倦怠,也不会像人类一样总是感到疲劳和痛苦。

复制的机器人大脑将认为它们的IQ超过200实属寻常。在此基础之上,爱因斯坦的大脑仅使用了正常容量的80%,我们可以将这一理念与我们自身联系起来。

如下表所示,不同的IQ范围可以决定一个人的能力。若要了解你所处的范围,请访问以下网站:www.IQTest.com。IQ范围能力参与测试的人员在此范围的比例40~54极低不足1%55~69低2.3%70~84低于平均水平 85~114平均水平68%115~129高于平均水平 130~144天赋高2.3%145~159天才不足1%160以及160以上杰出天才 

人们可以信心满满地憧憬,有感知能力的AGI机器的智慧必将超越绝大部分人类,甚至胜过各界天才,无疑比68%的人类(平均IQ值介于85~114)要高得多。

也许我们可以学着接受IQ超过130的智能机器,未来还会有更多此类智慧级别的机器出现,相比之下,仅有2.3%的人类可以达到同等水平的智慧。同时,这些机器能完成我们能做的任何事情,不仅做得更快更好,而且还可以全天候不间断地工作。除了偶尔的自我维护之外,无需任何休假或休息,还可以完成很多过去只有人类才能完成的工作!再过30年,这种情况就会发生,很可能会导致高达80%的失业率。想想看吧!

全自动化公司很可能会创造不错的业绩,但由于失业人群没有收入,他们将无法购买其产品。因此,在达到全自动化之前,必须实施一些备用(或许是保障)性质的永久基本生活津贴。同样的问题是到那时还需要货币吗?谁知道呢?

这一奇点(史无前例、无法理解的场景)的后果将是毁灭性的,纵然有关当局立即开始制定应对计划也无法挽回局面。我们知道他们的做事方式,一直以来都是官僚主义、拖延拒绝和繁文缛节,可以这样讲,基本不太可能开展任何直接干预或准备工作。下一届政府宣言中会提到这个问题吗?可能不会。

前文已经提到过,计算机系统结构本身将完全仿照新生儿大脑。聪明的程序员时时刻刻需要相关硬件才能完成本职工作。他们必须能够测试发现的问题,处理不可避免的内在错误。硬件供应商当然希望销售他们所需的一切东西。然而,如果智能软件存在任何重大缺陷,将会怎样?当然,这需要从各个角度进行多方位思考。

另外还有一个问题:显而易见,开发人员不会等到终极紧凑型超级芯片问世后再开发相关产品。按照他们的处事原则,必然会捆绑使用两个或更多早期版本的芯片,从而达到智慧大脑临界物质期望达到的效果。接着,尝试使用装有这个临时大脑的试验性软件,因而很可能会导致一些事故的发生。很可能已经有人在世界的某个角落开展过这项尝试,他们完全无视历史忠告,且不计后果。

但信不信由你,未来必定还会出现更令人震惊的新闻。短短一年之后,我们(或者强人工智能(AGI)机器本身)还会开发下一代智能软件计算机大脑,其能力将是第一代强人工智能(AGI)机器的两倍。随后,一年左右乃至更短的时间,又会再次翻番。随着发展速度的不断加快,所需的时间可能会越来越短,如果机器人参与其中,进度会更快。未来将会出现智慧爆炸,超级人工智能(ASI)很快会拉开序幕。

超级人工智能将非常卓越,聪慧得令人不敢相信,人类头脑根本无法企及。此外,它们还可以自我复制,相较于人类的工作方式,可以说是快得惊人。能够以惊人的速度反复自我提升,甚至可以无限提升。

面对这种很可能永无止境、持续增长的现象,我们将会受到哪些影响?自本书出版之日起,短短13年后很可能就会实现超级人工智能(ASI)。我们能否能够与这些比我们聪明很多、甚至超出人类预期的人工实体和谐相处?人工实体呢?它们的观点如何?愿意与我们共存吗?如果不愿意,它们可能会对我们做些什么?我们很多时候会忽略昆虫,但如果它们挡住我们的去路,情况很快会变得十分棘手。或许我们将会变成错误或者病毒,超级人工智能(ASI)认定必须将我们完全清除。“但是,我们始终掌握主动权,只要断电或者拔出电源就可以了,不是吗?”大家可能会这样问。然而,同样有理由相信,一些机器足够智能,不允许我们断电。“切断电源怎么样?让它们通过电池供电运转?”我怀疑,在我们采取这项措施之前,它们已经开发出备用能源。也许集成太阳能电池板、蓄电池系统可以提供电源支持?放射性同位素电源或许是最佳选择。放射物不会对人工机器造成干扰,但人类却害怕辐射。重点在于,机器大脑越来越智慧,势必会意识到这些情况,甚至会提出更智能、更先进的观点。

一些忠实拥护者可能会提出抗议,人类的嫉妒天性永远不允许出现不断发展的、很厉害的超级人工智能(ASI)竞争对手,更不要说是任其蓬勃发展了。一旦遇到任何危急情况,发现机器似乎在摆脱我们的控制,解决方法似乎很简单,就只剩下虔诚祈祷了。

有人势必会反驳,“是的,但为什么只有少数幸运儿可以逃出生天?为什么只有少数人能够在地震和海啸等自然灾害中生还?”尽管只有少数幸运儿生还,但人们却倾向将其归功于祈祷和奇迹。其他人却难逃厄运,无论生前是否虔诚祈祷。14世纪,至少有1亿人死于黑死病。当然,很多人相信不断祈祷可以幸免于难,但却并未奏效。

有史为鉴,我们可以从中学到很多知识。很多死亡源于准备不足或缺乏意识和远见。简单查询维基百科,不难发现其中提供了1900年以来的残酷死亡数字:事 件死亡人数西班牙型流行性感冒(1918年)5000万~1亿第一次世界大战1600万中国海原地震27万中国洪水(1931年)100万以上第二次世界大战(以及引发世界大战的事件)5000万~8500万印度洋地震和海啸(2004年)28万海地地震(2010年)16万叙利亚内战(当前)22万(仍有人不断死亡)

有一点维基百科也不能确定,那就是当时的幸存人数及其避开灾祸的方法。有人曾经说过:“奇迹是一种不可能发生但确实存在的东西。”

当然,祈祷确实可以使很多人有所安慰,即使不能采取有效措施防范灾难,也不能坐视不理。有人说“自助者,天助之”,但我更相信人得靠自己,并应当时刻做好准备,提前采取防范措施。

然而,也不一定完全悲观。据一些乐观的专家预测,强人工智能(AGI)机器将保护我们,避免各种未来威胁。不过,与我们不同的是,它们有足够的智慧预测各种灾难,并采取必要的措施加以防范。

很多专家认为,等到强人工智能(AGI)发展成熟,必将帮助我们解决自身问题及处理事务。只要政府确保开发软件的科学家充分考虑了未来的安全保护,那么很可能实现这些目标。不过,一旦大脑硬件准备妥当,如何对智能软件开展必要的测试?需要达到怎样的安全水平?

人类活动引发气候变化是缺乏远见的一个例证。很多人依然拒绝相信全球变暖,而且断言不会发生这种情况,尤其是那些只关心下一届选举却对科学漠不关心的政客们,以及那些墨守成规者。太多受到误导的人们还在自鸣得意,“留给子孙后代处理,与我何干?”

诚然,最近在巴黎召开的一场大型国际气候控制会议上,各方的确朝着正确方向达成了一项协议……然而,这就够了吗?还来得及吗?更重要的是,全体与会人员真的会按承诺开展工作吗?

然而,关于这个奇点,很多专家预计这将意味着又一黄金时代的到来。新型智能助手(不能将它们称为“奴隶”)将为我们完成各种工作。它们所实现的医疗进步将会延长人类的寿命。正是因为它们的智慧和持续努力,我们的食品及其他必需品才变得富足。假如我们可以按照某种公平合理的方式应对经济局势,那必将能够健康悠然地度过一生。或许我们所需的一切生活用品都将免费获取。

一些乐观的未来主义者甚至认为犯罪将消逝在历史长河之中,彻底成为过去。如果经济因素不复存在,也就不再会有战争了。遗憾的是,战争需要另当别论,而且很少有专家讨论过其他一些因素。

世界各地的各色狂热分子将会如何?他们会破坏智能机器还是利用智能机器?与此同时,一些人必定仍然沉溺于激情犯罪,热衷于追名逐利。不过,或许新人类只需稍稍操纵DNA,就会产生很大的不同。

另外,这个问题已经迫在眉睫,但思考起来十分无聊。如何保证全体低IQ人群获得满足感和成就感、享受更多娱乐、参与新运动、畅玩更多电子游戏?或许,矩阵世界的持续虚拟现实体验可能是一些人苦苦探寻的解决方案!

当然,为了实现所有美好的目标,我们必须接受安全国际协议的保护,从而控制高级人工智能(AI)软件的算法设计。然而,真的能够及时做好准备吗?更不用说进行妥善测试了。能够强制执行吗?谁负责强制执行?

当然,毫无疑问,多个具有感知能力的智慧机器将同时或相继诞生。全球竞赛已然拉开序幕,人们纷纷针对各种应用程序争相开发此类机器。不过,千万不要被迷惑:等到首款强人工智能(AGI)计算机大脑本身建成后,在下载智能软件之前将毫无意识,像新生儿一样天真无邪。同样,整个过程可能只需要几分钟时间。相较而言,儿童需要多久才能长成才智过人的成年人?

未来的发展局面取决于智能软件的性能和效率,以及承载计算机大脑的机器或其他主机类型。如果内置了通信功能,还需要借助算法(或许几乎瞬间)下载多少其他静态或移动主机?它们如何彼此响应?如何对我们做出响应?

事实上,目前全球有30余家政府和私人研究机构致力于开发强人工智能(AGI)。这些机构开展研究的原因五花八门,动机也各不相同,有好有坏,主要取决于自身所处的立场,而且绝不会止步于此。再加上很多其他方面的关切目光,我相信,超级人工智能(ASI)将成为一个必然趋势。

至于这些智慧产物如何彼此响应以及如何对我们做出响应,必须上升到情感层面来考虑。强人工智能(AGI)机器和超级人工智能(ASI)机器会有情感吗?它们具有哪些理想?对我们友好吗?彼此友好吗?会感到恐惧和憎恨吗?爱情呢?人类进化出若干特质,使我们可以感受这个世界的刺激、快乐和危险。当然,提到思维创造,首先闪过人们脑海的是自我保护。一旦意识到身边存在各种威胁,所有生物都会首先想到自我保护。

如果其中一个或多个创新产物成为超级黑客,入侵我们的全球通信网络,将会怎样?它可以将自身复制到任何位置,继而接管并控制。为了应对这些问题,一种解决方法或许是将地区编入智能算法,从而引导我们创造的生物为我们所用。毕竟,与人类不同的是,这些生物始终可以确切识别谁是它们的创造者。

另外,还必须考虑的一点是:人类大脑增强。随着高级芯片可以插入大脑并与其结合为一体,早期科幻半机器人概念正逐渐开始成为现实。这项技术已经得到应用并且初见成效,例如恢复部分视力。另外还实现了其他一些功效,包括直接通过意识控制的假臂和假肢。这些都是真实的进步,而且发展迅速,大家可以在本书的后面部分详细地了解,或许你已经在其他地方看到过相关信息了。

设想一下,这些技术将进一步呈现怎样的指数级发展。如今,人的大脑中可以植入强大的记忆处理功能。这会怎么样?人将会被赋予直接的大脑并访问互联网上的海量知识库。这个人很快将成为各领域的专家。

到了一定的时期,超级人工智能(ASI)也可以做到。增强型超人很可能应运而生,它会拥有与人类一样的情感。一个有趣且非常重要的问题是:哪一类人会率先接受这项超能力?或许会是一位科学家,接下来又会是谁呢?政治家?互联网大亨?还是犯罪高手?可以肯定的是,这个人必定坐拥庞大的财富。独裁者的心中必然有着这样一个奢侈的梦想,有着难以想象的寿命,掌握源源不断的信息,霸占互联网,享有永无止境的权力和数之不尽的金钱,那么这位暴君势必很难走下政治神坛。阿西莫夫三大定律

在短篇小说集《Robots Included》中,我对实现AGI后可能取得的进步进行了深入探讨。虽然故事创作的时间并不很久,但从头至尾都没有提到过ASI。创作故事期间,我从未听说过ASI,甚至没有想过这个概念。这些故事主要围绕阿西莫夫机器人三大定律(Asimov’s Three Laws of Robotics)展开,旨在识别一些最为突出的漏洞,这位具有传奇色彩的作家的绝大部分机器人故事都采用这项定律策略。阿西莫夫博士的三大定律如下。

第一定律:机器人不得伤害人类,或坐视人类受到伤害。

第二定律:除非违背第一定律,机器人必须服从人类的命令。

第三定律:在不违背第一及第二定律下,机器人必须保护自己。

我们已经明确地意识到,实现AGI后,不久将会实现ASI,第一定律和第二定律将无法妥善保护我们免受自己所创建的新物种的伤害。根据他们的观点,第二定律和第三定律同样无法提供充分的保护。因此,我们亟需构思一些更有效的定律。这项目标十分明确,我们必须立即着手实现这一目标,但事实上说时容易做时难。负责开展这些项目的科学家们已经发现,即使是定义基本元素这样的任务也非常困难。在研发AGI的杰出科学家当中,有多少人认真为其创造的机器人设计了人性化算法?毫无疑问的是,并非所有科学家皆是如此,尤其是那些全心全意开发智能战斗机器人的科学家们,战斗机器人目前已经投入使用,这或许会令人大吃一惊。一些战斗机器人已经杀死了人类,但迄今为止,却无法以杀人犯的罪行对机器人治罪。

不过,只要我们可以控制创造的成果,那么必将带来改变生活的巨大福祉。这样不仅可以为我们完成各项工作,还能丰富我们的生活,然而此刻还仅限于想象。很可能会呈现一个利于发展和探索的黄金时代,造福我们所有人。一些专家对此进行了精确预测,但另外一些专家的预测则很悲观。谁才是正确的?大家认为呢?

现在,我不得不提到意识这个概念。我们有意识,动物也有意识,当然包括狗和猫,观察过鸟类行为的任何人都了解鸟在做什么。但是,昆虫呢?它们在想什么?而今,一些机器人似乎已然可以模仿昆虫。大脑需要多大(更确切地说,是多强大)才能具备主人意识?软件需要多么复杂?或许有人已经在某个角落开发出了具有简单意识的机器,并且设计了学习软件对其进行激活。

如果AGI的智慧与我们相当,AGI是否具有意识和知觉?这是一个广泛的主题,目前仍在激烈讨论之中,特别是某些评论家还将其与人类灵魂的概念联系到一起。

或许,我们可以将意识比作核爆炸的实际临界质量,若有足够的裂变物质快速聚合到一起,那么必定会引发爆炸。也许等到大脑结构具有足够的通路和连接,而且软件足够广泛后,就会自动产生意识。时间会证明一切! 一些专家甚至已经开始担心互联网及其快速发展。同样,每次上网往往都会在新的桌面上发现一些诡异的现象,让我来想想看!

那么,目前我的结论是什么?你的结论又是什么?起初我们面临的威胁似乎是硬件预备状态。当具备构建临界质量大脑所需的大脑单元、芯片和足够强大的组件后,开发人员自然就会开始将它们出售给尽可能多的客户。接着,买主将会在其中下载自身创建的智能软件,无论在任何条件下都将如此。在我看来,这种情景听上去非常危险。重大新闻:2015年9月20日

根据目前的最新消息(经过再次修正),目前有一些传闻,说是一家美国超级计算机公司(可能是Cray)现已组装出一款智力与人类大脑相媲美的处理系统。从技术进步不断加快的角度而言,这一传言并不令人惊奇,但促使超级计算机组件实现真正的智能化和感知性所需的智能学习算法准备得如何?可以肯定的是,时间会证明一切,也包括这款机器的IQ水平。

继续发展……你可能会建议,在某种情况下,政府必须控制大脑单元的原材料市场,但可行性如何?还有足够的时间启动这一过程并做出保证吗?我们能真正防止任何人(包括潜伏在世界各地的违法犯罪分子)偶然、无意乃至蓄意启动智能欺诈机器、机器人、无人机等吗?

我认为现在有必要看看各类专家就这一课题发表的一些相关评论,另外我个人发表了几点近乎幻想的推测性观点。在我看来,关于这一主题,我所读过的最精彩的虚构系列小说是《The Avogadro Corp》。如果你也想尝试,不妨阅读这本小说以及William Hertling所著的续篇,其中做出了非凡的、发人深省的分析,而这可能正是我们所期望的。希望我的表达还算清楚。

在本书的第5章,我给出了一份清单,列出了我曾经阅读或举例的一些科普读物。这份清单无法面面俱到,因为我还会不断学习、阅读和研究这个主题。这些读物对这一奇点主题的研究远比我在本书中阐述的内容更详尽、更深入。大家可能会对清单中的图书数目感到惊奇,但数量只会继续增加,因为其他人也会对我们一生中可能会遭遇的骇人经历不断地有所感悟。

通读清单所列的大部分图书之后,我确信未来人类必然会遇到一些难以逾越的障碍,以及许多鼠目寸光的人无法解决的问题。显而易见,数字应用竞赛新进展不断涌现,并且仍以惊人的速度继续发展。除了20世纪40~50年代少数英明的未来学者和思想开明的科幻作者,谁曾想过几个(I/O)电子开关交换器会引领我们目前所经历的这场令人振奋的数字革命?虽然很多方面无法推断和预测,但不可否认的是,事态一直在变化,速度远非我们所能想象,而这一变化很可能直接引发奇点!第2章评论和报道

接下来,还要考虑一些相关问题,首先是一些新近发现的问题:人工智能的风险未来生命研究所投入700万美元经费研究人工智能风险

Elon Musk(来源:维基共享资源)

未来生命研究所(FLI)今日(2015年7月1日)宣布在全球范围内选出37个研究团队,计划运用Elon Musk和Open Philanthropy Project资助的700万美元开展一项全球性研究项目,保障AI技术朝着有利于人类的方向发展。

这些资金部分来源于Musk本人1月向该机构捐献的1000万美元,另外120万美元则由Open Philanthropy Project提供。

从全球近300个申请团队中精心挑选出的优胜团队将负责研究与未来AI发展有关的大量计算机科学、法律、政策、经济及其他领域问题。

由于本周上映了《终结者:创世纪》(Terminator Genisys,终结者系列的第5部电影),组织者重点强调了区分现实与虚构的重要性。“终结者剧情呈现的危险并不会发生,而是分散了未来AI面临的真实问题”,FLI主席Max Tegmark表示,“我们仍在持续关注,目前资助的37个团队必将帮助我们解决一些有关实际问题。”

再来看一条相关新闻:据《金融时报》称,今天机器人在德国卡塞尔市附近的大众汽车厂中谋杀了一位技师。

事故发生时,这位年仅21岁的技师当时站在安全箱中。大众汽车发言人称,“这款机器人并非与生产线工人并肩工作的新一代轻型协作式机器人,它丢弃了安全箱,而且这款机器人并不存在技术缺陷,”文章明确指出。

这起事故并非首例。据2010年《连线》杂志报告称,一位年仅25岁的福特汽车公司生产线工人在密歇根平岩压铸厂因公殉职,这是首例机器人致人死亡记录。百亿亿次级计算机奥巴马签发总统令授权开发百亿亿次级超级计算机

即便达到目前的半导体技术限制,也可以向未来HPC(高性能计算)系统发展(“后摩尔定律时代”)。

美国总统奥巴马签发了总统令,授权美国国家战略计算计划(NSCI)创建世界上运行速度最快的超级计算机。NSCI负责建造世18界上首台百亿亿次级(10次)计算机——相当于目前运行速度最快的超级计算机的30倍。

总统令要求如下。

1.加速提供百亿亿次级计算系统,综合运用硬件功能和软件功16能,在代表政府需求的各种应用程序上达到目前(10次)系统性能的100倍左右。

2.加强用于建模和模拟的技术平台与用于执行数据分析计算的技术平台之间的连贯性。

3.即便达到目前的半导体技术限制,也可以在未来的15年中建立一条面向未来HPC(高性能计算)系统发展(“后摩尔定律时代”)的可行路线。

4.采用整体方法解决相关问题(如网络技术、工作流、缩小规模、基本算法和软件、可访问性及员工团队发展),增加永久性国家HPC生态系统的容量并增强其功能。

5.发展永久性公司协作关系,确保美国政府与工业和学术部门最大限度地共享研究成果和发展进步。重回榜首

2013年,美国拥有世界上运行速度最快的超级计算机——Titan,其运行速度高达17.59 petaflop/s,Rmax(Linpack基准)的地位受到动摇,中国的天河2号取而代之。据全球500大超级电脑名单(TOP500 lists)记载,这款超级计算机的速度高达33.86 petaflop/s,由中国人民解放军国防科学技术大学开发。人工智能用于战争

2015年8月5日,美国前陆军军官兼自动武器专家Sam Wallace表示,目前拟定的自动进攻武器禁令不切实际而且危险异常。

在未来战争中,如果事态发展速度超出人类思维,AI控制式武装自动UAV将可负责接管。在《使命召唤:黑色行动2》(From Call of Duty Black Ops 2)中,未来生命研究所(Future of Life Institute,FLI)发布了一封公开信,呼吁“禁止使用自动进攻武器”,这一设想不切实际,如同在冷战高峰期大范围放弃使用核武器一样可笑。

禁止开发军用人工智能机器人、无人驾驶飞机的条约或国际协定注定无法奏效。根本无法全面遏制各国秘密研究相关技术,因为它们害怕其他国家和非政府机构研究这些技术。

另外,假设恐怖分子或丧心病狂的攻击者遵从有关协定的想法并不理智。

灵活的战术体系。机器擅长制定瞬时战术决策,而人类却很难做到。如果选择拒绝开发任何能够击败此类威胁的系统,那么很可能会酿成重大祸患。这一点与游戏程序类似,游戏程序早已超越人类水平。即使计算机在国际象棋对局中让出数子,甚至也可以击败最强大的人类对手,而且战绩依然十分卓著。战术决策无需具备与战略思维同等水平的智慧。因此,可想而知,智能设备甚至无需具备近似人类的人工智能水平,就能在各种战术场景下比人类表现更佳——绝不仅仅是目前有限的瞬间战斗决策。

远程控制机器人系统。防止对目标军事系统进行电子窃听,以避免严重危害国家安全,这一点已经得到政府的广泛认可。但是,在这种攻击场景下,远程控制机器人系统的危害甚至更大,远程控制机器人系统可以接管并控制传统的有人驾驶喷气机。不过,尽管我们持续抵御军用飞机、核反应堆或核潜艇电子窃听,还是不得不制定防御战略,防范可能企图潜入直接控制这些系统的机器人系统。

作者注释:本文篇幅较长,为节省时间,总结如下。“这项技术已然出现,人工智能(AI)进步会带来危机感,促使我们必须持续开发防御功能。机器学习能力、图像识别算法和超级计算机这些技术已被发明出来,无法再倒退回去。尽管FLI高度重视,但其阻止自动武器系统发展进步的企图却是错误的。从全球范围来讲,我们不可能像变魔术般整齐划一地实现自律并消除野蛮,因此军备竞赛在所难免。另外,我们还需要制定战略决策,确保开发防御措施,抵御自动武器系统。不仅仅是目前面临的各种威胁,而是始终走在前列,抢先应对未来可能面临的威胁。”

2006年至2012年间,Sam Wallace曾担任美国陆军军官。2008~2009年,他还在伊拉克巴格达附近的胜利营基地担任过炮兵陆军军官及反导弹、火炮和迫击炮拦截任务战斗统帅。2010年至2011年年底,Sam指挥军队支援美国驻阿富汗的北约安全部队训练团增兵行动。Sam拥有美国中田纳西州立大学MBA学位和弗吉尼亚军事学院机械工程理学士学位。

参考资料● Thomas Hellstrom, On the Moral Responsibility of MilitaryRobots,

Ethics and Information Technology, September 2012(author copy).人工智能会摧毁人类吗?

不必担心,原因有五,如下所示。

更新人:Timothy B. Lee;更新时间:2014年12月19日下午3:50。ET tim@vox.com“AI末世来临么?《终结者》(Terminator)和《黑客帝国》(Matrix)等电影对乌托邦式的未来进行了详细描述,计算机发展出超人智慧并摧毁人类。另外还有一些思想家将此类情况视为真实危险。今年夏季,牛津大学哲学家Nick Bostrom接受了采访。另外,还有奇点理论家Ray Kurzweil和美国乔治梅森大学(George Mason University)经济学家Robin Hanson。

但是,这些思想家都高估了计算机达到人类智慧的概率,夸大了这些计算机将会为人类带来的危险。事实上,智能机器的发展过程很可能相当迟缓,就算存在具有超人智慧的计算机,它们更需要人类,而不是人类更需要它们。”

作者注释:请访问下列网站详细了解相关内容。 http://www.vox.com/2014/8/22/6043635/5-reasons-we-shouldnt-worry-about-super-intelligent-computers-taking禁止自动化武器2015年7月27日,AI和机器人研究人员呼吁在全球范围禁止自动化武器。“如果各大主要军事强国全面推动人工智能(AI)武器发展,全球军备竞赛势必在所难免。”

目前有1000余位顶级人工智能(AI)、机器人研究人员及其他专家(包括Stephen Hawking和Elon Musk)联名签署发表了未来生命研究所(FLI)公开信,呼吁禁止自动进攻武器(详见后文)。

未来生命研究所(FLI)将“自动化武器”定义为无需人工干预就能选取并射击目标的武器,如武装四轴飞行器,这款飞行器可以搜索并消灭符合某些预定义条件的人群,但自动化武器中不包括巡航导弹和遥控无人驾驶飞机,因为它们需要人类做出目标锁定决策。

研究人员相信,AI技术已然形成一定规模,几年内(不需要数十年)将可部署相关系统。它们的地位极其重要:人们将自动化武器描述为继火药及核武器以后的第三次战争革命。自动化武器出现在黑市只是时间问题。“如果各大主要军事强国全面推动AI武器发展,全球军备竞赛势必在所难免。这条技术轨迹的终点十分明显:自动化武器终将成为明日的冲锋枪。与核武器不同,自动化武器不需要价格昂贵或难以获取的原材料,因而必将无处不在而且价格低廉,各大主要军事强国都能实现大批量生产。”“至于出现在黑市及落入恐怖分子、独裁统治者以及意欲实施种族清洗的军阀等各方的手中,恐怕也只是时间问题。自动化武器有很多不良用途,例如执行暗杀、破坏国家稳定、镇压人民及种族灭绝。因此,我们相信,AI军备竞赛必定会对人类带来不利影响。”

拟定的禁令类似于成功阻止化学武器、生物武器、致盲激光武器和太空基核武器所用的一些广受支持的国际公约。“我们相信,人工智能技术很可能在很多方面为人类造福,这也正是我们发展这项技术的目标所在。发起人工智能(AI)军备竞赛很不明智,应该颁布自动进攻武器禁令加以阻止,”公开信总结道。

作者注释:这项阻止国际强人工智能(AGI)军备竞赛的紧急立法提案仅是一个开始,欢迎大家积极献计献策。这将使我们感到更加安全……只是会不会太迟了?人工智能的局限性算法再聪明也创造不出《外交事务》这样的学术刊物(我最近引用的一个观点)。

无论智能机器将会如何发展(智能机器必然比现在智能得多),都不会建立科学、文学以及我们历经数千年创造的文化的任何其他组成元素,而且人类的创造过程还在继续。有些时候,人类会借助自己发明并掌控的技术进行创造。其中所说的“我们”,并不单单是指爱因斯坦和莎士比亚。我指的是整个人类,整个人类共同创造、使用、操控、处理、交流文化组成符号并懂得真理。我真的很怀疑机器能否自行创建Twitter,就算创建标签也是不可能的。

我敢肯定,我们的智能机器必定可以执行特殊任务、提升我们的能力并改善我们的生活。很多工作将由算法和机器人代劳,很多元素也将因它们而创造,过去的半个世纪充分印证了这一点。一些居心叵测的坏人势必会利用这些智能机器为祸他人。如果过于依赖智能机器,而未考虑发展所带来的各种后果,必然会犯下很多错误。

然而,智能机器不具备独立思维。智能机器没有我们的想象力、创造力和独特的人类文化。智能机器永远无法取代我们,因为它们永远不会成为人类。

作者注释:不管最后的真相是什么,我们依然盼望这位乐观主义者的观点正确……但我个人对此表示怀疑。一些机器人已经具备创造力。

广大研究人员发现,机器渐渐开始学会自学,甚至有了自己的态度。

在谷歌公司(股票代码GOOGL,−0.67%),有一个使用电影剧本数据库的计算机程序,研究人员反复地让它定义道德。它很难做到,根据人类工程师记录的对话,它最后恼羞成怒,痛斥提问者并结束了对话。这种交流进一步证实了一些大型技术公司在人工智能领域的最新进展,随着数据可用性的上升和计算成本的降低,人工智能领域必将蓬勃发展。这项工作是认知计算领域(教导计算机模仿人类大脑的部分工作模式)的最新发展成果。人们还需要在自然语言处理方面开展大量工作,如记录人类交流或书本文档中出现的文字或语言,通过教学机器从中提取意义和意境等。Google App、Apple Siri和Microsoft Cortana个人助理都是此类自然语言研究的重要成果。

未来的工作岗位有哪些?还会剩下多少岗位?谁将会获得这些岗位?

我们可能会充满想象和盼望,期盼像上次那样开展目前的这场工业革命:伴随一些岗位的消失,必然会创建更多的岗位,从而适应新时代涌现出的新发明。在《机器人时代》(Rise of the Robots)一书中,硅谷企业家马丁·福特指出,事情绝非如此。随着技术的持续加速发展,机器开始自我托管,所需的人数将越来越少。人工智能正在逐渐淘汰一些“好工作”:很多律师助理、新闻工作者、办公室职员乃至计算机编程人员都将被机器人和智能软件所取代。

如果照此发展下去,蓝领和白领岗位都将逐渐消失,工人阶级家庭和中产阶级家庭会进一步减少。与此同时,家庭势必会因开支增加(尤其是教育和医疗两大行业,目前尚未因信息技术而实现重大改观)而遭受重创。结果,不仅可能会引发大规模失业和社会不公,还会破坏消费经济本身。

在《机器人时代》一书中,福特详细描述了机器智能和机器人可以完成的工作,并恳请雇主、学者和政策制定者正视这些后果。过去应对技术破坏的解决方法(尤其是加强培训和教育)将不再奏效,而今我们必须确定未来究竟是会出现大范围的繁荣,还是会引发严重不公和经济不安感。无论何人,只要希望了解技术的加速发展对其自身及后代经济前景以及整个社会的影响,都有必要阅读《机器人时代》。机器人目前能做的工作

演员?服务员?下一个机器时代即将来临。

目前美联社运用机器创作文章,中国餐厅使用机器人制作形状完美的面条,而这还仅仅只是开始。以往,专家们认为机器人只会威胁到蓝领的工作,而今白领职业也开始面临挑战,虽然一些经济学家认为眼下的“第二个机器时代”最终将会创造更多工作,但另外一些经济学家预计,不久某些不走运的从业人员将会失去工作。

作者注释:你的工作如何?继续……

英国公司Engineered Arts创造了一款多语言完全交互式机器人,名字叫做RoboThespian。通过平板电脑控制,可以进行眼神交流,猜测人类情绪和年龄,高声唱歌,很快还能行走和跳跃。

除了舞台表演(包括领衔主演弗兰兹·卡夫卡的新作《变形记》)以外,RoboThespian还能在博物馆、科学中心及其他旅游景区提供导游服务。

白领工作也免不了受到第二个机器时代的影响。麻醉师(美国收入最高的职业)如今可能会面临失业,Johnson & Johnson开发了一款名为Sedasys的系统,能够以更加低廉的价格提供低级麻醉服务。FDA批准对18岁以上的患者使用Sedasys,但一些麻醉师发出提醒,对这项技术的安全性提出质疑。“幸亏有了机器人旅馆服务员Botlr这名新员工,加利福尼亚州库比蒂诺的雅乐轩酒店(Aloft Hotel)得以改善客户服务。Botlr由硅谷创业公司Savioke设计,其中安装了照相机及其他传感器,负责从酒店大堂向客房运送物品。Botlr需要找到电梯,发出命令要求打开大门,抵达目标房间交付物品,接着完成差事后,进入充电站进行充电。”“股票和股权分析师将与智能机器展开激烈竞争,智能机器可以对投资行为实施精确分析和预测。一项名为‘Robo-advisers’的自动化服务正悄然兴起,开始取代财务顾问和规划师。SigFig就是一个很好的例子,SigFig运用算法为其客户量身定制投资组合。”

作者注释:这篇趣味性文章提供了更多示例,如下所示。“日本丰田汽车一直尝试向汽车以外的领域进行扩张。汽车制造厂发明了一款小提琴演奏机器人,机器人的手部和手臂有17个关

试读结束[说明:试读内容隐藏了图片]

下载完整电子书


相关推荐

最新文章


© 2020 txtepub下载