BT

如何利用碎片时间提升技术认知与能力? 点击获取答案

对话机器学习大神Michael Jordan:简介

| 作者 张天雷 关注 4 他的粉丝 , adam 关注 0 他的粉丝 发布于 2014年9月22日. 估计阅读时间: 6 分钟 | QCon上海2018 关注大数据平台技术选型、搭建、系统迁移和优化的经验。

Michael I. Jordan 是加州大学伯克利分校电子工程系、计算机科学和统计系的陈丕宏杰出教授。他在亚利桑那州立大学获得了数学硕士学位,并且在1985年从加利福尼亚大学圣地亚哥分校获得了认知学博士学位。自1988年到1998年,乔丹在麻省理工学院任教授,他的研究方向包括了计算学、统计学、认知科学以及生物科学,最近几年集中在贝叶斯非参数分析,概率图模型,谱方法,核方法和在分布式计算系统、自然语言处理、信号处理和统计遗传学等问题的应用上。

乔丹教授是美国国家工程学院院士、科学院院士和美国艺术和科学学院院士。同时,他还是美国科学进步协会的资深会员。他被数理统计研究所任命为奈曼讲师和奖章讲师。在2015年,他获得了David E. Rumelhart奖;在2009年,他获得了ACM/AAAI的Allen Newell奖。同时,他是AAAI、ACM、ASA、CSS、IEEE、IMS、ISBA和SIAM的成员。

带着在机器学习方面的诸多的贡献,于9月10日,Michael I. Jordan教授在著名社区Reddit的机器学习板块参加了“Ask Me AnyThing”活动,乔丹教授回答了机器学习爱好者许多问题。本系列整理了相关的问答,供远在地球另一面的国内人工智能和机器学习爱好者学习讨论,所有问答的先后顺序由Reddit用户投票决定。

乔丹教授在机器学习领域里一个重要的贡献就是关于参数化模型和非参数模型的研究,他认为非参数模型还没有开始发展。在问及这个话题时,他指出主要是相关领域学者根本没有尝试过。他以LDA模型为例详细讲述了这两种模型。注意到LDA(隐含狄利克雷分布)是一个带参数的贝叶斯模型,其中包括K个假设已知的主题。而非参数版本的LDA被称为HDP(隐含狄利克雷过程)。从实际实现上来看,从LDA到HDP仅仅是一小步。从LDA提出至今,LDA已经被用于数千种应用了。然而,使用LDA模型并不比使用HDP模型具有更多的优势,有时候甚至恰恰相反。

乔丹教授认为,贝叶斯非参数模型领域的推广真正需要的是一个简单的介绍——写出它的数学模型,并且展示它的美丽——目前这样的介绍并不存在。所以,他和他的同事Yee Whye The正在从事这项工作,并基本上写完了这样的介绍,有很大可能在今年秋天发行出来。

乔丹教授非常看好非参数模型,他说到“贝叶斯非参数模型刚刚在机器学习领域里点亮了未来,将如同经典的非参数模型有着广阔的舞台和发展前景”。这些模型能够在复杂性上持续增长,就像在信息时代数据积累看上去那么自然。如果这些模型能够得到很好的控制,并且聚焦在在带参数的子模型,非参数模型将会越来越流行。

机器学习领域非常博大精深,很多人可能是刚刚入门,好的学习资料对于机器学习初学者来说非常有用。乔丹教授在黑客新闻里,列出了机器学习的一系列阅读书籍,以方便读者开始学习机器学习,详细清单见https://news.ycombinator.com/item?id=1055042

乔丹教授的这份列表是为了那些进入伯克利分校的博士研究生而写的,这些人都是会将他们生命未来的几十年投身于这个领域,并且想要迅速的得到这个领域的前沿知识。乔丹教授说到,针对那些在工业界中需要足够的基础知识以使能够在几个月内开始工作的人,他准备一分完全不同的列表。

在问及这套书籍是否过时时,乔丹教授表示这套书籍列表来自几年前。他现在倾向于添加一些进一步挖掘基础主题的书。他特别推荐A. Tsybakov的书《Introduction to Nonparametric Estimation》作为获得估计下界工具的很可读的书籍,还有Y. Nesterov的《Introductory Lectures on Convex Optimization》来理解优化过程中的下界。同时,他推荐A. van der Vaart的《Asymptotic Statistics》,这本书是伯克利分校的教材,书中包含了推断过程中的很多寄托于经验过程理论之上想法。比如M估计,包含了最大似然法和经验风险最小化等等。还有B. Efron的《Large-Scale Inference: Empirical Bayes Methods for Estimation, Testing, and Prediction》,这也是一本很发人深省的书。

在乔丹教授的想法中,他不期望着所有来伯克利的学生都已经把所有这些书读过,但是他希望他们已经做了一些选择,并且花了一些时间至少读过大部分书中的一些章节。而且,他认为这些将要进入机器学习领域的学生不仅需要最终读完这些书籍,更需要将它们都读上至少三遍——第一遍能够勉强明白了,第二遍去尝试做相关实验推导,第三遍看到之后会觉得这些都是显而易见的。


感谢郭蕾对本文的审校。

给InfoQ中文站投稿或者参与内容翻译工作,请邮件至editors@cn.infoq.com。也欢迎大家通过新浪微博(@InfoQ)或者腾讯微博(@InfoQ)关注我们,并与我们的编辑和其他读者朋友交流。

评价本文

专业度
风格

您好,朋友!

您需要 注册一个InfoQ账号 或者 才能进行评论。在您完成注册后还需要进行一些设置。

获得来自InfoQ的更多体验。

告诉我们您的想法

允许的HTML标签: a,b,br,blockquote,i,li,pre,u,ul,p

当有人回复此评论时请E-mail通知我
社区评论

允许的HTML标签: a,b,br,blockquote,i,li,pre,u,ul,p

当有人回复此评论时请E-mail通知我

允许的HTML标签: a,b,br,blockquote,i,li,pre,u,ul,p

当有人回复此评论时请E-mail通知我

讨论

登陆InfoQ,与你最关心的话题互动。


找回密码....

Follow

关注你最喜爱的话题和作者

快速浏览网站内你所感兴趣话题的精选内容。

Like

内容自由定制

选择想要阅读的主题和喜爱的作者定制自己的新闻源。

Notifications

获取更新

设置通知机制以获取内容更新对您而言是否重要

BT