深度学习之美:AI时代的数据处理与最佳实践(txt+pdf+epub+mobi电子书下载)


发布时间:2020-07-25 05:41:12

点击下载

作者:张玉宏

出版社:电子工业出版社

格式: AZW3, DOCX, EPUB, MOBI, PDF, TXT

深度学习之美:AI时代的数据处理与最佳实践

深度学习之美:AI时代的数据处理与最佳实践试读:

内容简介

深度学习是人工智能的前沿技术。本书深入浅出地介绍了深度学习的相关理论和实践,全书共分16章,采用理论和实践双主线写作方式。第1章给出深度学习的大图。第2章和第3章,讲解了机器学习的相关基础理论。第4章和第5章,讲解了Python基础和基于Python的机器学习实战。第6至10章,先后讲解了M-P模型、感知机、多层神经网络、BP神经网络等知识。第11章讲解了被广泛认可的深度学习框架TensorFlow。第12章和第13章详细讲解了卷积神经网络,并给出了相关的实战项目。第14章和第15章,分别讲解了循环递归网络和长短期记忆(LSTM)网络。第16章讲解了神经胶囊网络,并给出了神经胶囊网络设计的详细论述和实践案例分析。

本书结构完整、行文流畅,是一本难得的零基础入门、图文并茂、通俗易懂、理论结合实战的深度学习书籍。推荐序一通俗也是一种美德

这是一个大数据时代。

这也是一个人工智能时代。

如果说大数据技术是还有待人们去研究、去挖掘、去洞察的问题,那么人工智能无疑是这个问题的解决方案,至少是方案之一。

人的智能,无疑是学习的产物。那么机器的智能呢,它何尝不是学习的产物?只不过在当下,它被深深地打上了“深度学习”的烙印。通过深度学习,我们可以把大数据挖掘的技术问题转换为可计算的问题。

有人说,深度学习不仅是一种算法的升级,更是一种思维模式的升级。其带来的颠覆性在于,它把人类过去痴迷的算法问题演变成数据和计算问题。吴军博士更是断言,未来只有2%的人有能力在智能时代独领风骚,成为时代的弄潮儿。所以,拥抱人工智能,携手深度学习,不仅是一种时代的召唤,而且顺应了当前科学技术对人才的紧迫需求。

深度学习矗立于人工智能的前沿。我们远眺它容易,但近爱它却不易。在信息过剩的时代,我们可能会悲哀地发现,知识鸿沟横在我们面前。的确,大量有关深度学习的书籍占据着我们的书架,数不尽的博客充斥着我们的屏幕。然而,很多时候,我们依然对深度学习敬而远之。

这个“敬”是真实的,这个“远”通常是被迫的。因为找到一本通俗易懂的有关深度学习的读物,并非易事。

张玉宏博士所著的《深度学习之美:AI时代的数据处理与最佳实践》,正是在这种背景下以通俗易懂的姿态面世的书籍。如果用一句话来形容这本书,那就是“通俗易懂也是一种美德”。

在任何时代,能把复杂的事情解释清楚,都是一项非常有用的本领。张玉宏博士是一名高校教师,加之他还是一名科技作家,因此,通俗易懂、行文流畅、幽默风趣,便成了这本书的特征。

这里有一个比喻:如果你爱好明史,且古文基础深厚,去阅读《明史》可能是你的不二选择;但倘若你不太喜欢学究气的著作,那就推荐你去读读当年明月所写的《明朝那些事儿》。本书仿佛就是《明朝那些事儿》版的“深度学习”。巧妙的比喻、合理的推断、趣味的故事,时不时地散落在书里,妙趣横生。

当然,这本书也不是十全十美的,但瑕不掩瑜,如果你想零基础入门深度学习,那么相信这本书一定能够给你提供很多帮助。黄文坚墨宽投资创始人、《TensorFlow实战》作者2018年5月于北京推荐序二技术,也可以“美”到极致

和张玉宏博士认识是在2015年,那个时候我还在CSDN&《程序员》杂志做编辑。结缘的过程颇为巧合,仅仅是因为一次无意浏览,看到他在CSDN论坛义务回答网友的问题,被其认真、高水平和深入浅出的回答所吸引,倾慕之下,我策划了一次采访。而这次采访奠定了我们的友谊,文章在CSDN作为头条发布并获得3万多的阅读量后,我们在论文翻译、《程序员》杂志供稿上开始了合作。

仅仅牛刀小试,张博士翻译的文章就篇篇阅读量破万。对于晦涩难懂的技术文章而言,阅读量破万是很高的数字,无异于如今朋友圈的10万阅读量。其中最值得一提的是《PayPal高级工程总监:读完这100篇论文就能成大数据高手》这篇文章,在2015年阅读量近6万后,2017年又被某大数据公众号转载,在朋友圈刷屏。为此,我在微博上有感而发:“有价值的内容,是经得起时间冲刷的。”然而,文章被追捧的背后,则是张博士呕心沥血的付出,也许只有我知道——为了保障质量,那100篇论文张博士全部下载并看了一遍,独立注解超过50%,前后花了整整一周时间,通宵达旦,聚沙成塔。

2016年我来到阿里巴巴做云栖社区的内容运营,和张博士的合作也来到了这里。云栖社区是阿里云运营、阿里技术协会和集团技术团队支持的开放技术社区,是云计算、大数据和人工智能顶级社区之一。在这个阶段,张博士在技术文章翻译上又有了另外一种风格:局部放大翻译,就某个点深度解读,并加入自己的认识,这种类似“书评”式的写作方式,让原本枯燥的技术文章显得很有趣,在阅读量上也是立竿见影——他的文章的阅读量比一般技术文章的阅读量多好几倍,这在彼时的社区是极为少见的。

后来,张博士和我说,他想发表系列文章,细致地讲一讲深度学习,我非常认同和支持他做这件事。

于是接下来的几个月,张博士不断受到以下赞誉:“文章形象生动,耐人寻味,重燃深度学习的欲望。”“这个系列写得太棒了!!!谢谢您愿意分享。”“大神,更新的频率可以稍微快点吗?万分感谢!”

有人甚至用追剧来形容自己的感受,并评论:“期待好久了,终于更新了,作者辛苦了,感谢作者提供该优秀文章以供学习。”“容易理解,害怕大神不更新。”

……

这些赞誉,说的是在社区篇篇10多万阅读量的文章:

一入侯门“深”似海,深度学习深几许(深度学习入门系列之一)

人工“碳”索意犹尽,智能“硅”来未可知(深度学习入门系列之二)

神经网络不胜语, M-P模型似可寻(深度学习入门系列之三)“机器学习”三重门,“中庸之道”趋若人(深度学习入门系列之四)

Hello World感知机,懂你我心才安息(深度学习入门系列之五)

损失函数减肥用,神经网络调权重(深度学习入门系列之六)

山重水复疑无路,最快下降问梯度(深度学习入门系列之七)

BP算法双向传,链式求导最缠绵(深度学习入门系列之八)

全面连接困何处,卷积网络见解深(深度学习入门系列之九)

卷地风来忽吹散,积得飘零美如画(深度学习入门系列之十)

局部连接来减参,权值共享肩并肩(深度学习入门系列之十一)

激活引入非线性,池化预防过拟合(深度学习入门系列之十二)

循环递归RNN,序列建模套路深(深度学习入门系列之十三)

LSTM长短记,长序依赖可追忆(深度学习入门系列之十四)

上面这些文章,光看标题就非同凡响,是的,能把技术文章的标题写得这么文艺和生动,一看文学功力就十分深厚。内容更不用说,通俗易懂、图文并茂、形象生动。“用这么幽默的语言,将那么高大上的技术讲得一个过路人都能够听懂,这是真的好文章。”身边的一位朋友如此述说。而更值得一提的是,在每篇博文后面,除了小结,还有“请你思考”,考察读者对知识的掌握情况,锻炼读者的思辨能力,让读者能够进一步主动学习,触类旁通。

这样出色的文章,也许只有张博士才能写出来。为什么呢?我想,一方面得益于其读博士时,在美国西北大学有过两年访学经历,他在中美教育差异上有过深刻的思考;另一方面,也源自他丰富的教学经验——是的,他在河南工业大学执教多年,懂得“教”与“授”的拿捏。对于张博士的教学,学生袁虎是这么谈论自己的感受的:“他的课跟美国高校的课堂比较接近——开放、平等、互动性强,鼓励学生去思考。上课的时候,他并不死守课本知识,而是特别注重教授给我们学习方法。”袁虎还特别指出,他们专业出来的几个技术大神多多少少都算是张博士的门徒。

在云栖社区的连载,从2017年5月17日开始,到8月17日结束,一共14篇文章,很多读者“追剧”至此,仍意犹未尽。有读者说:“作为机器学习小白,楼主的文章真是赞。楼主,出书吧!!!看博客真担心哪天突然就没有了。”因为一些原因,社区的博客篇幅有限,内容浅尝辄止……他觉得自己可以做得更多、更好。

因此,《深度学习之美:AI时代的数据处理与最佳实践》在这里和大家见面了。可以说,拿到这本书的读者是非常幸运的,因为你们不需要每天刷博客“追剧”,也不需要苦苦等待。你们可以边捧书边喝咖啡,在橘黄色的台灯下、在安静的深夜里看个尽兴。

人工智能在当下非常火爆。不可否认,也许你可以从汗牛充栋的网上获得深度学习的一些知识点或技巧,但网络中的知识是碎片化的。尤其对于初学者,如果想走得更远,需要一本书系统地进行指导,并从底层思考这些知识的来龙去脉,以及知识之间的关联,本书正是这样一本书。

结集成册的《深度学习之美:AI时代的数据处理与最佳实践》除了继承之前博文趣味性、通俗易懂等诸多优点之外,篇幅更宏大(此前的连载只是一个起步),内容上还增加了实战环节,让大家能够学以致用,在实践中与理论印证。另外,相比此前连载的博文,书籍中增加了许多张老师亲自绘制的趣图,诙谐地说明了不同知识点或概念间的区别。在理论上,张博士也对公式的前因后果给出了详细的推导过程,只有知道它是怎么来的,才能更好地运用它。学习知识不正是这样吗?

社会变化非常快,因此人们总爱反复核算事物的价值,喜欢性价比高的东西。如何衡量一本书的价值,除了看它是否能帮到你之外(技能价值),还要看它的社会价值。本书是张博士深度学习的思想随笔,兴之所至的内容,往往也是精彩至极、深度思考的结晶。

我非常佩服张博士,他不仅博览群书,还能够将不同类型的书籍内化,并结合生活案例,以一种非常有趣的形式将深奥的知识表达出来,比如用“求婚”“耳光”等例子讲解“激活函数”和“卷积函数”。尤其是“中庸之道”的例子,让大家在悟透一个很难弄懂的知识点的同时,自己的思想也从富有哲理的故事中变得不一样。

这种技术领域的人文情怀,绝非一般高手能做到的。上述认识,相信手握此书的您,也会很快感受到。——@我是主题曲哥哥,网易高级编辑前阿里云资深内容运营、CSDN&《程序员》杂志编辑2018年5月自序深度学习的浅度梦想

这是一本有关“深度学习”的图书!

这是一本有关“深度学习”通俗易懂的图书!

这是一本有关“深度学习”的、有些人文情怀的图书!

我希望,我的读者在读这本书时,能给它这三种不同境界的渐进式的评价。第一个评价,说明它“有料”。第二个评价,说明它“有用”。第三个评价,说明它“有趣”。“有料、有用且有趣”是我对本书的定位,也是写作本书的浅度梦想,不是有大咖说过吗,“梦想还是要有的,万一实现了呢?”

写一本好书,真的很难!

但并非不能达成。窃以为,写成一本好书,通常有两条途径。第一条我称之为“自上而下大家传道法”。也就是说,有些学术大家已在领域内功成名就,名声斐然,他们俯下身段,抽出时间,高屋建瓴,精耕细作,必出精品。比如,卡耐基梅隆大学的Tom Mitchell教授编写的《机器学习》、南京大学周志华老师编写的《机器学习》,都是业内口碑极好的畅销常青树,实为我辈楷模。

但“大家写好书”并不是充分条件,因为大家通常都非常忙,他们可能非常“有料、有钱(有经费)”,但却未必“有闲”。要知道,写作不仅仅是一项脑力活,它还是一项极花费时间的体力活。

好在还有写成好书的第二条途径,我且称之为“自下而上小兵探道法”。也就是说,写书的作者本身并非领域专家,而是来自科研实战一线,他们的眼前也时常迷茫一片,不得不肉搏每一个理论困惑,手刃每一个技术难题,一路走来,且泣且歌,终于爬上一个小山丘。松了口气,渴了口水,嗯,我要把自己趟过的河,踩过的坑,写出来总结一下,除了自勉,也能让寻路而来的同门或同道中人,不再这么辛苦。

很显然,我把自己定位为第二类(至少梦想是)。

我是一个科技写作爱好者,我在网络上写过很多有关于大数据主题的(主要发表在CSDN)文章,也有关于深度学习的(主要发表于阿里云-云栖社区)。出于爱好写作的原因,有时我也关注写作的技巧。直到有一天,一位知名人士的一席话,一下子“电着”我了。他说,“写作的终极技巧,就是看你写的东西对读者有没有用。”拿这个标准来衡量一下,什么辞藻华丽、什么文笔优美,都可能是绿叶与浮云。在这一瞬间,我也明白了,为什么我所在的城市,地铁时刻表的变更通知,寥寥几百字,短短没几天,阅读量也可以轻易达到10万。嗯,这样的写作,有干货,对读者有用。好作品的要素,它都有!

于是,“对读者有用”,就成为指导我写作这本书的宗旨。以用户的思维度量,就可以比较清晰地知道,什么对读者有用。

当前,人工智能非常火爆。自从AlphaGo点燃世人对人工智能的极大热情后,学术界和产业界都积极投身于此,试图分得一杯羹。而当前(至少是当前)人工智能的当红主角就是“深度学习”,它不仅仅表现在AlphaGo一战成名的技术上,还表现在图像识别、语音识别、自然语言处理性能提升上,总总而生,林林而群。

当然,想投身于此并非易事,因为深度学习的门槛比较高。为了搞懂深度学习,我把国内市面上大部分与深度学习相关的书籍都买来拜读了(在后记中,我会感谢支持的各种基金),受益匪浅,但至少于我而言,它们大部分的学习曲线都是陡峭的,或者说它们大多高估了初学者的接受程度,为了读懂它们,读者真的需要“深度学习”。

在深度学习领域,的确也有一批高水平的读者,但他们可能并不需要通过相对滞后的书籍来提高自己的知识水平,新鲜出炉的arXiv论文,才是他们的“菜”。但高手毕竟有限,懵懵懂懂的初学者,数量还是相当庞大的。

于是,我想,写一本零基础入门的、通俗易懂的、图文并茂的、理论结合实战的深度学习书籍,对广大的深度学习初学者来说,应该是有用的。

本书的写作风格,也紧扣前面的四个修饰词,章节的安排也是按照循序渐进的节奏展开的。为了降低门槛和强调实践性,本书采用了双主线写作方式,一条主线是理论脉络,从基础的机器学习概念,到感知机、M-P模型、全连接网络,再到深度学习网络,深入浅出地讲解相关的理论。另外一条主线是实战脉络,从Python零基础入门说起,直到TensorFlow的高级应用。

全书共分16章,具体来说,第1章给出深度学习的大图(Big Picture),让读者对其有一个宏观认知。第2章和第3章,给出了机器学习的相关基础理论。仅仅懂理论是不够的,还需要动手实践,用什么实践呢?最热门的机器学习语言非Python莫属了。于是我们在第4章添加了Python基础,以边学边用边提高为基调,并在第5章讲解了基于Python的机器学习实战。

有了部分Python基础,也有了部分机器学习基础,接下来,我们该学习与神经网络相关的理论了。于是在第6章至第10章,我们先后讲解了M-P模型、感知机、多层神经网络、BP神经网络等知识。其中大部分的理论都配有Python实战讲解,就是让读者有“顶天(上接理论)立地(下接实战)”的感觉。接下来的问题就是,如果所有神经网络学习的项目都是Python手工编写的,是不是效率太低了呢?

是的,是该考虑用高效率框架的时候了,于是在第11章,我们讲解了被广泛认可的深度学习框架TensorFlow。有了这个基础,后面的深度学习理论就以此做实战基础。第12章详细讲解了卷积神经网络。随后,在第13章,我们站在实战的基础上,对卷积神经网络的TensorFlow实践进行了详细介绍。

任何一项技术都有其不足。在第14章,我们讲解了循环递归网络(RNN)。在第15章,我们讲解了长短期记忆(LSTM)网络。以上两章内容,并非都是高冷的理论,除了给出理论背后有意思的小故事,还结合TensorFlow进行了实战演练。在第16章,我们顺便“惊鸿一瞥”解读了Hinton教授的新作“神经网络胶囊(CapsNet)”,点出卷积神经网络的不足,并给出了神经胶囊的详细论述和实践案例分析。

本书中的部分内容(共计14篇),先后发表在技术达人云集的云栖社区(https://yq.aliyun.com/topic/111),然后被很多热心的网友转载到CSDN、知乎、微信公众号、百度百家等自媒体中,受到了很多读者的认可。于吾心,有乐陶然。

当然,从我对自己的定位——“小兵探道”可知,我对深度学习的认知,仍处于一种探索阶段,我仍是一个深度学习的学习者。在图书中、在网络中,我学习并参考了很多有价值的资料。这里,我对这些有价值的资料的提供者、生产者,表示深深的敬意和谢意。

有时候,我甚至把自己定位为一个“知识的搬运工”、深度学习知识的梳理者。即使如此,由于学术水平尚浅,我对一些理论或技术的理解,可能是肤浅的,甚至是错误的,所以,如果本书有误,且如果读者“有闲”,不妨给出您的宝贵建议和意见,我在此表示深深的感谢。同时,由于时间和精力有限,很多有用的深度学习理论和技术还没有涉及,只待日后补上。

我的联系信箱为:zhangyuhong001@gmail.com。张玉宏2018年3月

读者服务

轻松注册成为博文视点社区用户(www.broadview.com.cn),扫码直达本书页面。

•下载资源:本书如提供示例代码及资源文件,均可在下载资源处下载。

•提交勘误:您对书中内容的修改意见可在提交勘误处提交,若被采纳,将获赠博文视点社区积分(在您购买电子书时,积分可用来抵扣相应金额)。

•交流互动:在页面下方读者评论处留下您的疑问或观点,与我们和其他读者一同学习交流。

页面入口:http://www.broadview.com.cn/34246第1章一入侯门“深”似海,深度学习深几许当你和恋人在路边手拉手约会的时候,你可曾想,你们之间早已碰撞出了一种神秘的智慧——深度学习。恋爱容易,相处不易,不断磨合,打造你们的默契,最终才能决定你们是否能在一起。深度学习也一样,输入各种不同的参数,进行训练拟合,最后输出拟合结果。恋爱本不易,且学且珍惜!1.1深度学习的巨大影响

近年来,作为人工智能领域最重要的进展——深度学习(Deep Learning),在诸多领域都有很多惊人的表现。例如,它在棋类博弈、计算机视觉、语音识别及自动驾驶等领域,表现得与人类一样好,甚至更好。早在2013年,深度学习就被麻省理工学院的《MIT科技评论》(MIT Technology Review)评为世界10大突破性技术之一,如图1-1所示。图1-1 深度学习入围2013年MIT 10大突破性技术

另一个更具有划时代意义的案例是,2016年3月,围棋世界顶级棋手李世石九段,以1∶4不敌谷歌公司研发的阿尔法围棋(AlphaGo,亦称阿尔法狗),这标志着人工智能在围棋领域已经开始“碾压”人类。在2016年年末至2017年年初,AlphaGo的升级版Master(大师)又在围棋快棋对决中,以60场连胜横扫中日韩顶尖职业高手,一时震惊四野。

但有人并不服气,或者想替人类争口气。1997年出生的柯洁,就是这样的一个人。他是世界围棋史上最年轻的四冠王,围棋等级世界排名第一。2017年5月23日至27日,在与AlphaGo 2.0进行的人机大战中,柯洁虽殚精竭虑,无奈还是以0∶3战败,再次令世人瞠目结舌(参见图1-2)。而背后支撑AlphaGo具备如此强悍智能的“股肱之臣”之一,正是深度学习。图1-2 AlphaGo

一时间,深度学习,这个本专属于计算机科学的术语,成为包括学术界、工业界甚至风险投资界等众多领域的热词。的确,它已对我们的工作、生活甚至思维都产生了深远的影响。

比如,有人认为,深度学习不仅是一种算法的升级,还是一种全新的思维方式。我们完全可以利用深度学习,通过对海量数据的快速处理,消除信息的不确定性,从而帮助我们认知世界。它带来的颠覆性在于,将人类过去痴迷的算法问题,演变成数据和计算问题。在以前,“算法为核心竞争力”正在转变为“数据为核心竞争力”。这个观点,多少有点暗合阿里巴巴集团董事局主席马云的观点,我们正进入一个DT(Data Technology,数据技术)时代。

在人工智能领域,深度学习之所以备受瞩目,是因为从原始的输入层开始,到中间每一个隐含层的数据抽取变换,到最终的输出层的判断,所有特征的提取,全程是一个没有人工干预的训练过程。这个自主特性,在机器学习领域,是革命性的。

世界知名深度学习专家吴恩达(Andrew Ng)曾表示:“我们没有像通常(机器学习)做的那样,自己来框定边界,而是直接把海量数据投放到算法中,让数据自己说话,系统会自动从数据中学习。”谷歌大脑项目(Google Brain Project)的计算机科学家杰夫·迪恩(Jeff Dean)则说:“在训练的时候,我们从来不会告诉机器说:‘这是一只猫’。实际上,是系统自己发明或者领悟了‘猫’的概念。”1.2什么是学习

说到“深度学习”,追根溯源,我们需要先知道什么是“学习”。

著名学者赫伯特·西蒙教授(Herbert Simon,1975年图灵奖获得者、1978年诺贝尔经济学奖获得者)曾对“学习”下过一个定义:“如果一个系统,能够通过执行某个过程,就此改进了它的性能,那么这个过程就是学习”。

大师果然名不虚传,永远都是那么言简意赅,一针见血。从西蒙教授的观点可以看出,学习的核心目的就是改善性能。

其实对于人而言,这个定义也是适用的。比如,我们现在正在学习深度学习的知识,其本质目的就是为了提升自己在机器学习上的认知水平。如果我们仅仅是低层次的重复性学习,而没有达到认知升级的目的,那么即使表面看起来非常勤奋,其实也仅仅是一个“伪学习者”,因为我们没有改善性能。

按照这个解释,那句著名的口号“好好学习,天天向上”,就会焕发新的含义:如果没有性能上的“向上”,即使非常辛苦地“好好”,即使长时间地“天天”,都无法算作“学习”。1.3什么是机器学习

遵循西蒙教授的观点,对于计算机系统而言,通过运用数据及某种特定的方法(比如统计方法或推理方法)来提升机器系统的性能,就是机器学习(Machine Learning,简称ML)。

英雄所见略同。卡耐基梅隆大学的机器学习和人工智能教授汤姆[1]·米切尔(Tom Mitchell),在他的经典教材《机器学习》中,也给出了更为具体(其实也很抽象)的定义:

对于某类任务(Task,简称T)和某项性能评价准则(Performance,简称P),如果一个计算机程序在T上,以P作为性能的度量,随着经验(Experience,简称E)的积累,不断自我完善,那么我们称这个计算机程序从经验E中进行了学习。

比如,学习围棋的程序AlphaGo,它可以通过和自己下棋获取经验,那么,它的任务T就是“参与围棋对弈”,它的性能P就是用“赢得比赛的百分比”来度量的。类似的,学生的任务T就是“上课看书写作业”,它的性能P就用“考试成绩”来度量。

因此,Mitchell教授认为,对于一个学习问题,我们需要明确三个特征:任务的类型、衡量任务性能提升的标准以及获取经验的来源。

事实上,看待问题的角度不同,机器学习的定义也略有不同。比如,支持向量机(SVM)的主要提出者弗拉基米尔·万普尼克[2](Vladimir Vapnik),在其著作《统计学习理论的本质》中就提出,“机器学习就是一个基于经验数据的函数估计问题”。

而在另一本由斯坦福大学统计系的特雷弗·哈斯蒂(Trevor [3]Hastie)等人编写的经典著作《统计学习基础》则认为,机器学习就是“抽取重要的模式和趋势,理解数据的内涵表达,即从数据中学习(to extract important patterns and trends, and understand “what the data says.We call this learning from data)”。

这三个有关机器学习的定义,各有侧重,各有千秋。Mitchell的定义强调学习的效果;Vapnik的定义侧重机器学习的可操作性;而Hastie等人的定义则突出了学习任务的分类。但其共同的特点在于,都强调了经验和数据的重要性,都认可机器学习提供了从数据中提取[4]知识的方法。

当下,我们正处于大数据时代。众所周知,大数据时代的一个显著特征就是,“数据泛滥成灾,信息超量过载,然而知识依然匮乏不堪”。因此,能自动从大数据中获取知识的机器学习,必然会在大数据时代的舞台上扮演重要角色。1.4机器学习的4个象限

一般来说,知识在两个维度上可分成四类,如图1-3所示。即从可统计与否上来看,可分为可统计的知识和不可统计的知识这两个维度。从能否推理上看,可分为可推理的知识和不可推理的知识这两个

[5]维度。

在横向上,对于可推理的,可以通过机器学习的方法,最终完成这个推理。传统的机器学习方法,就是试图找到可举一反三的方法,向可推理但不可统计的象限进发(象限Ⅱ)。目前看来,这个象限的研究工作(即基于推理的机器学习)陷入了不温不火的境地,能不能峰回路转,还有待时间的检验。

而在纵向上,对于可统计的、但不可推理的(即象限Ⅲ),可通过神经网络这种特定的机器学习方法,达到性能提升的目的。目前,基于深度学习的棋类博弈(阿尔法狗)、计算机视觉(猫狗识别)、自动驾驶等,其实都是在这个象限做出了耀眼的成就。图1-3 知识的4个象限

从图1-3可知,深度学习属于统计学习的范畴。用李航博士的话

[6]来说,统计机器学习的对象,其实就是数据。这是因为,对于计算机系统而言,所有的“经验”都是以数据的形式存在的。作为学习的对象,数据的类型是多样的,可以是数字、文字、图像、音频、视频,也可以是它们的各种组合。

统计机器学习,就是从数据出发,提取数据的特征(由谁来提取,是一个大是大非的问题,下面将进行介绍),抽象出数据的模型,发现数据中的知识,最后再回到数据的分析与预测中去。

经典机器学习(位于第Ⅱ象限),通常是用人类的先验知识,把原始数据预处理成各种特征(Feature),然后对特征进行分类。然而,这种分类的效果,高度取决于特征选取的好坏。传统的机器学习专家们,把大部分时间都花在如何寻找更加合适的特征上。因此,早期的机器学习专家非常辛苦。传统的机器学习,其实可以有一个更合适的称呼—特征工程(Feature Engineering)。

但功不唐捐。这种痛,也有其好的一面。这是因为,特征是由人辛辛苦苦找出来的,自然也就为人所能理解,性能好坏,机器学习专家可以“冷暖自知”,灵活调整。1.5什么是深度学习

后来,机器学习的专家们发现,可以让神经网络自己学习如何抓取数据的特征,这种学习方式的效果似乎更佳。于是兴起了特征表示学习(Feature Representation Learning)的风潮。这种学习方式,对数据的拟合也更加灵活好用。于是,人们终于从自寻特征的痛苦生活中解脱了出来。

但这种解脱也需要付出代价,那就是机器自己学习出来的特征,它们存在于机器空间,完全超越了人类理解的范畴,对人而言,这就是一个黑盒世界。为了让神经网络的学习性能表现得更好,人们只能依据经验,不断尝试性地进行大量重复的网络参数调整,同样是苦不堪言。于是,人工智能领域就有了这样的调侃:“有多少人工,就有多少智能”。

因此,你可以看到,在这个世界上,存在着一个“麻烦守恒定律”:麻烦不会减少,只会转移。

再后来,网络进一步加深,出现了多层次的“表示学习”,它把学习的性能提升到另一个高度。这种学习的层次多了,其实也就是套路深了。于是,人们就给它取了一个特别的名称—Deep Learning(深度学习)。

简单来说,深度学习就是一种包括多个隐含层(越多即为越深)的多层感知机。它通过组合低层特征,形成更为抽象的高层表示,用以描述被识别对象的高级属性类别或特征。能自生成数据的中间表示(虽然这个表示并不能被人类理解),是深度学习区别于其他机器学习算法的独门绝技。

深度学习的学习对象同样是数据。与传统机器学习不同的是,它需要大量的数据,也就是“大数据(Big Data)”。有一个观点在工业界一度很流行,那就是在大数据条件下,简单的学习模型会比复杂模型更加有效。而简单的模型,最后会趋向于无模型,也就是无理论。

例如,早在2008年,美国《连线》(Wired)杂志主编克里斯·安德森(Chris Anderson)就曾发出“理论的终结(The End of [7]Theory)”的惊人断言:“海量数据已经让科学方法成为过去时(The data deluge makes the scientific method obsolete)”。

但地平线机器人创始人(前百度深度学习研究院副院长)余凯先[8]生认为,深度学习的惊人进展,是时候促使我们重新思考这个观点了。也就是说,他认为“大数据+复杂(大)模型”或许能更好地提升学习系统的性能。1.6“恋爱”中的深度学习

法国科技哲学家伯纳德·斯蒂格勒(Bernard Stiegler)认为,人们总以自己的技术和各种物化的工具,作为自己“额外”的器官,不断地成就自己。按照这个观点,其实,在很多场景下,计算机都是人类思维的一种物化形式。换句话说,计算机的思维(比如各种电子算法)中总能找到人类生活实践的影子。

比如,现在火热的深度学习,与人们的恋爱过程也有相通之处。在知乎社区上,就有人(如jacky yang)以恋爱为例来说明深度学习的思想,倒也非常传神,如图1-4所示。我们知道,男女恋爱大致可分为以下三个阶段。图1-4 恋爱中的深度学习

第一阶段是初恋期,相当于深度学习的输入层。女孩吸引你,肯定是有很多因素的,比如外貌、身高、身材、性格、学历等,这些都是输入层的参数。对于喜好不同的人,他们对输出结果的期望是不同的,自然他们对这些参数设置的权重也是不一样的。比如,有些人是奔着结婚去的,那么他们对女孩的性格可能给予更高的权重。否则,外貌的权重可能会更高。

第二阶段是热恋期,对应于深度学习的隐含层。在这期间,恋爱双方都要经历各种历练和磨合。清朝湖南湘潭人张灿写了一首七绝:

书画琴棋诗酒花,当年件件不离他。

而今七事都更变,柴米油盐酱醋茶。

这首诗说的就是,在过日子的洗礼中,各种生活琐事的变迁。恋爱是过日子的一部分,确实也是如此,需要双方不断磨合。磨合中的权重取舍,就相当于深度学习中隐含层的参数调整,需要不断地训练和修正这些参数!恋爱双方相处,磨合是非常重要的。要怎么磨合呢?光说“我爱你”是苍白的。这就给我们提了个醒,爱她(他)就要多陪陪她(他)。陪陪她(他),就增加了参数调整的机会。参数调整得好,输出的结果才能是你想要的。

第三阶段是稳定期,自然相当于深度学习的输出层。输出结果是否合适,是否达到预期,高度取决于隐含层中的参数“磨合”得怎么样。1.7深度学习的方法论

在深度学习中,经常有“end-to-end(端到端)”学习的提法,与之相对应的传统机器学习是“Divide and Conquer(分而治之)”。这些都是什么意思呢?“end-to-end”(端到端)说的是,输入的是原始数据(始端),然后输出的直接就是最终目标(末端),中间过程不可知,也难以知。比如,基于深度学习的图像识别系统,输入端是图片的像素数据,而输出端直接就是或猫或狗的判定。这个端到端就是,像素→判定。[9]

再比如,“end-to-end”的自动驾驶系统,输入的是前置摄像头的视频信号(其实也就是像素),而输出的直接就是控制车辆行驶的指令(方向盘的旋转角度)。这个端到端就是,像素→指令。

就此,有人批评深度学习就是一个黑箱(Black Box)系统,其性能很好,却不知道为何好,也就是说,缺乏解释性。其实,这是由深度学习所处的知识象限决定的。从图1-3可以看出,深度学习在本质上属于可统计不可推理的范畴。“可统计”是很容易理解的,就是说,对于同类数据,它具有一定的统计规律,这是一切统计学习的基本假设。那“不可推理”又是什么意思?其实就是“剪不断、理还乱”的非线性状态。

从哲学上讲,这种非线性状态是具备了整体性的“复杂系统”,属于复杂性科学范畴。复杂性科学认为,构成复杂系统的各个要素自成体系,但阡陌纵横,其内部结构难以分割。简单来说,对于复杂系统,1+1≠2,也就是说,一个简单系统加上另外一个简单系统,其效果绝不是两个系统的简单累加效应,参见图1-5所示的漫画。因此,我们必须从整体上认识这样的复杂系统。于是,在认知上,就有了从一个系统或状态(end)直接整体变迁到另外一个系统或状态(end)的形态。这就是深度学习背后的方法论。图1-5 1个人+1个人=?

与之对应的是“Divide and Conquer(分而治之)”,其理念正好相反,在哲学中它属于“还原主义(Reductionism,或称还原论)”。在这种方法论中,有一种“追本溯源”的蕴意包含于其内,即一个系统(或理论)无论多复杂,都可以分解、分解、再分解,直到能够还原到逻辑原点。

在还原主义中就是“1+1=2”,也就是说,一个复杂的系统,都可以由简单的系统叠加而成(可以理解为线性系统),如果各个简单系统的问题解决了,那么整体的问题也就得以解决。比如,很多的经典力学问题,不论形式有多复杂,通过不断分解和还原,最后都可以通过牛顿的三大定律得以解决。

从传统的“还原论”出发,单纯的线性组合思维,势必会导致在人工智能系统的设计上功能过于简单。如果我们希望模拟的是一个“类人”的复杂系统(即人工智能系统),自然就无法有效达到目的,具体来说,有如下两个方面的原因:(1)这个世界(特别是有关人的世界)本身是一个纷繁复杂的系统,问题之间互相影响,形成复杂的网络,这样的复杂系统很难用一个或几个简单的公式、定理来描述和界定。(2)在很多场景下,受现有测量和认知工具的局限,很多问题在认识上根本不具有完备性。因此,难以从一个“残缺”的认知中,提取适用于全局视角的公式和定理。[10]

柏拉图在《理想国》中讲到了一个经典比喻——“洞穴之喻(Allegory of the Cave)”,如图1-6所示。设想有一个很深的洞穴,洞穴里有一些囚徒,他们生来就被锁链束缚在洞穴之中,他们背向洞口,头不能转动,眼睛只能看着洞壁。图1-6 柏拉图的洞穴之喻 (图片来源)

在他们后面砌有一道矮墙,墙和洞口之间燃烧着一团火,一些人举着各种器物沿着墙往来走动,如同木偶戏的屏风。当人们扛着各种器具走过墙后的小道时,火光便把那些器物的影像投射到面前的洞壁上。由于这些影像是洞中囚徒们唯一能见到的事物,所以他们即以为这些影像就是这个世界上最真实的事物。

洞穴人会误把其所能感知到的投影于洞壁的影像(二维世界),当作真实的世界(三维世界),他们怎能基于一个二维世界观测的现象归纳出一个适用于三维世界的规律呢?

但幸运的是,我们已进入大数据时代,它为我们提供了一种认知纷繁复杂世界的无比珍贵的资源——多样而全面的数据。有学者就[11]认为,大数据时代之所以具有颠覆性,就是因为目前一切事物的属性和规律,只要通过适当的编码(即数字介质),都可以传递到另外一个同构的事物上,得以无损全息表达。

但对于这个复杂的世界,直接抓住它的规律并准确描述它是非常困难的。在一个复杂系统中,由于非线性因素的存在,任何局部信息都不可能代表全局。大数据时代有一个典型的特征,“不是随机样本,而是全体数据(n=all)”,而“全体数据”和复杂性科学中的“整体性”,在一定程度上是有逻辑对应关系的。

深度学习所表现出来的智能也正是“食”大数据而“茁壮成长”起来的,其智能所依赖的人工神经网络模型,还可随数据量的增加而进行“进化”或改良。因此,它可被视为在大数据时代遵循让“数据自己发声”的典范之作。[12]

已有学者论证,大数据与复杂性科学在世界观、认识论和方法论等诸多方面都是互通的。复杂性是大数据技术的科学基础,而大数据是复杂性科学的技术实现。深度学习是一种数据饥渴型(data-hungry)的数据分析系统,天生就和大数据捆绑在一起。在某种程度上,大数据是问题,而深度学习就是其中的一种解决方案。

表1-1所示的是几个流行的深度学习项目中的参数细节。从表1-1可以看到,深度学习网络本身就是一个训练数据量巨大、调节参数数量巨多的复杂网络。表1-1 深度学习项目中的数据规模与网络节点参数调整数量

在复杂系统中,各要素之间紧密相连,构成了一个巨大的关联网络,存在着各种各样的复杂联系,各种要素组合起来会带来新结构、新功能的涌现,也就是说,整体往往会大于部分之和。从上面的分析可知,深度学习具备的特征抽取自主性、网络节点的多关联性(难以找到一个线性结构描述上亿级别的参数)、“智能”提升的涌现性,这些都表明它是复杂性科学中的一种技术实现。1.8有没有浅层学习

有了“深度学习”,读者很容易想到,那有没有相应的“浅层学习”呢?答案是,有。传统意义上的人工神经网络,主要由输入层、隐含层、输出层构成,其中隐含层也叫多层感知机(Multi Layer Perceptron)。

正如其名称所示,多层感知机的确也可以是多层的网络,但是层与层之间特征的选择,需要人手动实现,算法的训练难度非常大,故此感知机的层数通常并不多,这些机器学习算法,通常被称为浅层感知机。例如,支持向量机(Support Vector Machine,SVM)、Boosting、最大熵方法(如Logistic Regression,逻辑回归,简称LR),这些机器学习模型,隐含层只有一层,甚至连一层都没有(如LR算法)。

相比而言,区别于传统的浅层学习,深度学习强调模型结构的深度,隐含层远远不止一层。通常来说,层数更多的网络,通常具有更强的抽象能力(即数据表征能力),也就能够产生更好的分类识别的结果。

2012年,加拿大多伦多大学的资深机器学习教授杰弗里·辛顿(Geoffery Hinton)团队在ImageNet中首次使用深度学习完胜其他团队,那时网络层深度只有个位数。2014年,谷歌团队把网络做了22层,问鼎当时的ImageNet冠军。到了2015年,微软研究院团队设计的基于深度学习的图像识别算法ResNet,把网络层做到了152层。很快,在2016年,商汤科技更是叹为观止地把网络层做到了1207层[13],这可能是当前在ImageNet上最深的一个网络。我们不禁要问,这深度学习,到底“深”几许啊?

如果深度神经网络的层数再往“深处”做,也可能会达到2000层、3000层,但我们会发现,任何时候,都可能存在“过犹不及”的情况。因为这种极深的架构叠加,带来的通信开销会淹没性能的提升。

因此,我们需要清醒地认识到,对于构建出来的深度模型,“深度”仅仅是手段,“表示学习”才是目的。深度学习通过自动完成逐层特征变换,将样本在原空间的特征表示变换到一个新特征空间,从而使分类或预测更加准确。与原来的“浅层网络”的人工提取特征的方法相比,深度学习利用了大数据来自动获得事物特征,让“数据自己说话”,因此,更能够刻画数据丰富的内在信息。1.9本章小结

在本章,我们学习了机器学习的核心要素,那就是通过运用数据,依据统计或推理的方法,让计算机系统的性能得到提升。而深度学习,则是把由人工选取对象特征,变为通过神经网络自己选取特征,为了提升学习的性能,神经网络表示学习的层次较多(较深)。

以上仅仅给出机器学习和深度学习的概念性描述,在下一章中,我们将介绍机器学习的形式化表示,以及传统机器学习和深度学习的不同之处等。1.10请你思考

通过本章的学习,请你思考如下问题:(1)在大数据时代,你是赞同科技编辑出身的克里斯·安德森的观点呢(仅仅需要小模型),还是更认可工业界大神余凯先生的观点呢(还是需要复杂模型)?为什么?(2)你认为用恋爱的例子比拟深度学习贴切吗?为什么?(3)为什么非要用“深度”学习,“浅度”不行吗?参考资料

[1]Tom Mitchell.曾华军等译.机器学习[M].北京: 机械工业出版社, 2002.

[2]Vladimir N.Vapnik.张学工译.统计学习理论的本质[M].北京: 清华大学出版社, 2000.

[3]Hastie T, Tibshirani R, Friedman J.The Elements of Statistical Learning[M].北京: 世界图书出版公司, 2015.

[4]于剑.机器学习:从公理到算法[M].北京: 清华大学出版社, 2017.

[5]张玉宏.云栖社区.AI不可怕,就怕AI会画画——这里有一种你还不知道的“图”灵测试.https://yq.aliyun.com/articles/74383.

[6]李航.统计学习方法[M].北京: 清华大学出版社, 2012.

[7]Anderson C.The end of theory: The data deluge makes the scientific method obsolete[J].Wired magazine, 2008, 16(7): 16-07.

[8]余凯, 贾磊, 陈雨强, 等.深度学习的昨天、今天和明天[J].计算机研究与发展, 2013,50(9):1799-1804.

[9]Bojarski M, Del Testa D, Dworakowski D, et al.End to end learning for self-driving cars[J].arXiv preprint arXiv:1604.07316, 2016.

[10]柏拉图.黄颖译.理想国[M].北京: 中国华侨出版社, 2012.

[11]李德伟等.大数据改变世界[M].北京: 电子工业出版社, 2013.

[12]黄欣荣.从复杂性科学到大数据技术[J].长沙理工大学学报(社会科学版), 2014, 29(2):5-9.

[13]胡祥杰, 零夏.1200层神经网络夺冠ImageNet,深度学习越深越好?https://www.sypopo.com/post/6KQLelDer4/.第2章人工“碳”索意犹尽,智能“硅”来未可知现在的人工智能,大致就是用“硅基大脑”模拟或重现“碳基大脑”的过程。那么,在未来会不会出现“碳硅合一”的大脑或者全面超越人脑的“硅基大脑”呢?专家们的回答是,会的。而由深度学习引领的人工智能,正在开启这样的时代。在第1章中,我们仅从概念上描述了机器学习、深度学习等,在本章中,我们将给出更加准确的形式化描述。经常听到别人说人工智能如何、深度学习怎样,那么它们之间有什么关系呢?在本章中,我们首先从宏观上谈谈人工智能的“江湖定位”和深度学习的归属。然后从微观上聊聊机器学习的数学本质是什么,以及我们为什么要用神经网络。2.1信数据者得永生吗

以凯文·凯利(Kevin Kelly)为代表的数据主义认为,宇宙是由数据流构成的,任何现象或实体的价值,都体现在对数据处理的贡献度上。[1]

在《未来简史》一书里,新锐历史学家尤瓦尔·赫拉利(Yuval Harari)说,根据数据主义的观点,可把整个人类族群视为一个分布式的数据处理系统。在这个系统中,每个单独的个体都是其中的一个芯片。为了改善这个系统的性能,需要在如下4个方面不断改进:(1)增加处理器的数量。人多力量大,就是这个观点的通俗版本。(2)增加处理器的种类。其实就是要精细化社会分工,各司其职,各负其责。农民干不了祭司的活,祭司也吃不了农民的苦。(3)增加处理器自己的连接。这说的是,孤木难以成林,人类只有互通有无,方能做大做强。目前我国主导的“一带一路”倡议,究其本质,就是达到了添加连接的目的。(4)增加现有连接的流通程度。如果数据无法自由流动,光有连接也是无济于事的。

可能你会困惑,说来说去,这和“人工智能”“深度学习”到底有什么关系呢?莫急,它们之间还真有点关系,至少在逻辑上是有的,且听我慢慢分解。

目前,我们正处于一个大数据时代,不管你觉得这是炒作,还是信它为事实,有一点可以肯定,因为数据流动量过大,人类已经无法将数据转化为信息,更不用说从庞大的数据中提炼出知识和智能。

这是一个多么大的缺陷啊!

科技哲学家伯纳德·斯蒂格勒(Bernard Stiegler)认为,人,天然就是一种缺陷存在,但恰恰因为这种本质的缺陷存在,技术才有其存在的根本意义。那什么是技术呢?技术就是生命用来进化的支架。

想一想,人类为什么发明马车、汽车、飞机,这是因为人跑得不够快啊(缺陷!)。那人类为什么要发明望远镜、显微镜,这是因为人看得不够远、不够真切(缺陷!)。而人类为什么要发明计算机,这是因为记不牢、算不快、扒拉算盘好烦啊(还是缺陷!)。也正是因为这个缺陷的底层逻辑,在条件成熟时,人们就有一种强烈的欲望,即热切地想用外部的“电子算法”,替换自己大脑中的“生物算法”。

而这个强烈欲望的结果,就诞生了今天的“人工智能”(Artificial Intelligence,AI)。2.2人工智能的“江湖定位”

从宏观上来看,人类科学和技术的发展,大致都遵循着这样的规律:现象观察、理论提取和人工模拟(或重现)。人类“观察大脑”的历史由来已久,但由于对大脑缺乏“深入认识”,常常“绞尽脑汁”,也难以“重现大脑”。

直到20世纪40年代以后,脑科学、神经科学、心理学及计算机科学等众多学科取得了一系列重要进展,使得人们对大脑的认识相对深入,从而为科研人员从“观察大脑”到“重现大脑”搭起了桥梁,哪怕这个桥梁到现在还仅仅是一个并不坚固的浮桥(参见图2-1)。图2-1 人工智能的本质

而所谓的“重现大脑”,在某种程度上,就是目前的研究热点——人工智能。简单来讲,人工智能就是为机器赋予与人类类似的智能。由于目前机器的核心部件是由晶体硅构成的,所以可归属为“硅基大脑”。而人类的大脑主要由碳水化合物构成,因此可称之为“碳基大脑”。

那么,现在的人工智能,简单来讲,大致就是用“硅基大脑”模拟或重现“碳基大脑”。那么,在未来会不会出现“碳硅合一”的大脑或者全面超越人脑的“硅基大脑”呢?

有人认为,在很大程度上,这个答案可能是“会的”!比如,未来预言大师雷·库兹韦尔(Ray Kurzweil)预测,到2045年,人类的[2]“奇点(Singularity)”时刻就会临近。这里的“奇点”是指,人类与其他物种(物体)的相互融合。确切地说,是指硅基智能与碳基智能兼容的那个奇妙时刻。届时,严格意义上的人类将不复存在!2.3深度学习的归属

在当下,虽然深度学习领跑人工智能。但事实上,人工智能的研究领域很广,包括机器学习、计算机视觉、专家系统、规划与推理、语音识别、自然语音处理和机器人等。而机器学习又包括深度学习、监督学习、无监督学习等。简单来讲,机器学习是实现人工智能的一种方法,而深度学习仅仅是实现机器学习的一种技术而已(参见图2-2)。图2-2 深度学习的“江湖地位”

需要说明的是,对人工智能做任何形式的划分,都可能是有缺陷的。在图2-2中,人工智能的各类技术分支,彼此泾渭分明。但实际上,它们之间却可能阡陌纵横,比如,深度学习可以是无监督的,语音识别也可以用深度学习来完成。再比如,图像识别、机器视觉更是当前深度学习的拿手好戏。

一言以蔽之,人工智能并不是一个有序的树,而是一个彼此缠绕的灌木丛。有时候,一个分藤蔓比另一个分藤蔓生长得快,并且处于显要地位,那么它就是当时的研究热点。深度学习的前身——神经网络的发展,就经历了这样的几起几落。当下,深度学习如日中天,但会不会也有“虎落平阳”的一天呢?从事物的发展规律来看,这一天肯定会到来!

在图2-2中,既然我们把深度学习与传统的监督学习和无监督学习单列出来,自然是有一定道理的。这是因为,深度学习是高度数据依赖型的算法。它的性能,通常是随着数据量的增加而不断增强的,也就是说,它的可扩展性(Scalability)显著优于传统的机器学习算法(参见图2-3所示)。图2-3 深度学习和传统学习算法的区别

但如果训练数据比较少,深度学习的性能并不见得比传统机器学习好。其潜在的原因在于,作为复杂系统代表的深度学习算法,只有数据量足够多,才能通过训练,在深度神经网络中“恰如其分”地表征出蕴含于数据之中的模式。

不论是机器学习,还是它的特例深度学习,大致都存在两个层面的分析(参见图2-4):(1)面向过去(对收集到的历史数据进行训练),发现潜藏在数据之下的模式,我们称之为描述性分析(Descriptive Analysis)。(2)面向未来,基于已经构建的模型,对于新输入的数据对象实施预测,我们称之为预测性分析(Predictive Analysis)。

前者主要使用了“归纳”方法,而后者侧重于“演绎”。对历史对象的归纳,可以让人们获得新洞察、新知识,而对新对象实施演绎和预测,可以使机器更加智能,或者说让机器的某些性能得以提高。二者相辅相成,缺一不可。

在前面的部分,我们给出了机器学习的概念性描述,下面我们将给出机器学习的形式化定义。图2-4 机器学习的两层作用2.4机器学习的形式化定义

在《未来简史》一书中,赫拉利还说,根据数据主义的观点,人工智能实际上就是找到一种高效的“电子算法”,用以代替或在某项指标上超越人类的“生物算法”。那么,任何一个“电子算法”都要实现一定的功能(Function),才有意义。

在计算机术语中,将“Function”翻译成“函数”,这多少有点“词不达意”,因为它并没有达到“信、达、雅”的标准,除了给我们留下一个抽象的概念之外,几乎什么也没有剩下。但这一称呼已被广泛接受,我们也只能约定俗成地把“功能”叫作“函数”。

根据台湾大学李宏毅博士的通俗说法,所谓机器学习,在形式上可近似等同于,在数据对象中通过统计或推理的方法,寻找一个有关特定输入和预期输出的功能函数f(参见图2-5)。通常,我们把输入变量(特征)空间记作大写的X,而把输出变量空间记为大写的Y。那么所谓的机器学习,在形式就是完成如下变换:Y=f (X)。

在这样的函数中,针对语音识别功能,如果输入一个音频信号,那么这个函数f就能输出诸如“你好”“How are you?”等这类识别信息。图2-5 机器学习近似于找一个好用的函数

针对图片识别功能,如果输入的是一张图片,在这个函数的加工下,就能输出(或称识别出)一个或猫或狗的判定。

针对下棋博弈功能,如果输入的是一个围棋的棋谱局势(比如

试读结束[说明:试读内容隐藏了图片]

下载完整电子书


相关推荐

最新文章


© 2020 txtepub下载