在一票难求的Yann LeCun清华演讲当天上午,LeCun本人现身中国科学院自动化研究所,参与了一个“限制级”的高端私享会,CSDN记者整理了以下三条重要摘要。
- 我对什么感兴趣
- 我怎样看Human-like learning
- 请把自己当做一名科学家
我对什么感兴趣
非监督学习以及预测学习
迄今为止,在机器学习以及深度学习领域,我们已经取得了一些成功,这些成功都依赖于监督学习。监督学习有它本身的局限性,因为需要很多数据,并且这些数据需要经过人工标注,数据的背后需要很多的知识作为支撑。所以问题就转化成了我们如何让机器像动物和人类一样能够从现实世界自动学习,这样一来我们就需要搞清楚动物和人类学习背后的原理。
有些人认为,人类的学习方式是增强学习。而我个人认为,人类的学习方式是非监督学习,且是以预测为驱动的。 所以我们的大脑其实是一个预测引擎,从一定程度上说,能够预测是机器通往智能道路上的一道关卡。如果我们知道如何用深度学习或者其他的算法使得机器能够通过预测来解决问题的话,那么我们在制造更智能的机器的路上就取得了一个非常大的进步。
以科学家的视角来看,我对智能的本质,不论是人类智能还是人工智能都很感兴趣。从实用的角度来说,这也并不冲突,在很多的人工智能应用中,机器需要对这个世界有广泛的知识储备,甚至机器需要能够理解他们自己。举例来说,如果你想要开发一个对话系统或者虚拟助手,这种很有趣且很实用的系统。这种时候,机器就需要如前面所说的,对世界有的广泛的知识储备。据我所知,这种量级的知识储备不能够通过监督学习或者增强学习来达到。这也是我对非监督学习以及预测学习感兴趣的原因。
我怎样看Human-like learning
如果你说你现在就能做出这样的机器…
Come on!别骗自己了
因为现在我们还不知道如何让机器像人类一样思考,所以当我们讨论Human-like machine的时候,我们是在讨论一个还不存在的东西。所以就出现了正反两派。但是在我看来,那些现在就声称他们能够或者已经做出Human-like learning的人是夸大其词了。但Human-like learning确实是一个重要的研究方向。
要达到Human-like learning,或许需要监督、非监督以及增强学习的结合。拿预测做例子,比如说我放一个苹果在桌子上,然后我离开了,苹果可能会呆在桌子上也可能会滚下来,除非我们有一个预测模型,否则到底会发生什么是很难预测的。对于我们人类来说,如果我们知道这个桌子承不住这个苹果的话,苹果就会掉下来。所以说我们到底要如何教会机器理解这个世界,不仅要考虑到这个世界很大,还要考虑到这个世界充满了巧合和外力作用。
我们用力推一个东西它会动,推另一个东西它可能不会动。所以说对事物的区分和预测是我们人类对世界认知的一个体现。问题在于,这种预测不是任务导向型的(Task oriented ),而是任务独立型的(Task independent),所以有很多时候机器学到的事情可能对我们没有用,这就是为什么我们需要监督学习和增强学习来让机器学习对我们有用的事情。
现在经典的人工智能系统都是监督学习与增强学习的结合,这是很多研究人员、很多后起之秀正在从事的领域,是现在很多AI系统的一个共性。相信在座的很多人都从事过人工智能在感知层面的工作,我们从现实世界中提取信号以供机器学习,这是人工智能的第一步,还有第二步就是让机器能够对现实世界中将要发生的事情进行预测,以及对事物将会保留在何种状态进行预测。
所以近期大家越来越强调AI系统的整体性,即perception、prediction、reasoning、planning以及底层的监督、非监督、强化学习算法。AI一直以来在游戏方面表现得非常活跃,现在AI也能参与到一些实时的策略类游戏中了,例如星球大战这类游戏。这是对AI系统的一个很好的测试,因为接下来这些系统将会被用到现实世界中,这是一个非常令人激动的研究方向。
请把自己当做一名科学家
首批造飞机的工程师一定懂仿生学
对于深度学习的研究者来说,你们很幸运处于最好的时代。我相信,几年之后,人工智能将会对交通、医疗、生物、科学等诸多领域产生革命性的改变,而你们将要参与其中。
当代科学有三大未解问题:宇宙由什么组成、生命的本质是什么、人脑是如何工作的。我们正在从事的,正是这个探寻本质的过程。人工智能表面看起来是计算机科学相关的问题,但其实它关系到更多更广泛的科学研究。就像多年以前工程师们试图造飞机时一样,在一切都还未知的情况下,工程师需要考虑很多与工程制造看似不相关的问题,例如生物学的理论等。
我们虽说是计算机科学研究人员,但由于人工智能涉及到的范围之广,研究者对其他相关领域的涉猎也非常重要。