你我能打开人工智能的黑箱么? 大脑前沿

 

种种不足有一个根本的原因——机器只是从数据中学习到了相关,而没有建立因果联系。...





小编的话:站在 2016 的尾巴上眺望一年的科技发展,AI 和 Deep Learning 又有了什么突破性发展吗?将来的道路该如何期待?关于人工智能、深度学习的好文,转载自知识核。欢迎阅读。在刚刚过去的人工智能顶级会议——NIPS 2016 中,openAI、DeepMind 相继开源了自家的强化学习平台;亚马逊、苹果公司高调宣布进军 AI 研究领域;各路机器学习大佬们也纷纷亲自出马讲授 ppt,好不热闹。

不出所料的是,今年大会依然呈现三足鼎立之势:生成模型、强化学习和深度学习三大框架基本瓜分了机器学习领域,各类模型也是你中有我,我中有你。而让我们眼前一亮的是本次会议临近尾声时的另外一个主题,关于模型的可解释性的讨论(Interpretable Models)。那么,这个讨论从何说起呢?

从深度学习带领人工智能的再次复兴说起。人工智能这几年在工程领域的进步无疑是令人惊叹的,似乎每隔几天都在搞出大新闻,无怪乎隔三差五总有人大呼奇点临近。但科学研究者们似乎并不十分信服,毕竟与科学的历史相比,人工智能这门学科,从 1956 年的达特茅斯会议至今,起起落落不过 60 载,深度学习背后的不透明性,是科学研究者们所担忧的。

Nature 杂志今年10月曾发文评论,题目叫「我们能打开人工智能的黑箱么?」(Can we open the black box of AI?NATURE NEWS FEATURE),直指深度学习的难解释性。神经网络的学习机制对于科学家们是一个黑箱,不能理解机器都学到了些什么,令科学家们无法给与深度学习更大的信任。

而类似的担忧一直存在。2012年,MIT 在建校 150 周年之际,举办了一场主题为「Brains, Minds and Machines」的研讨会,世界顶尖的计算机科学家、心理学家、神经科学家等科学家们聚在一起,共同讨论人工智能的过去与未来。【小知识:这次研讨会也促成了MIT智能研究中心的成立, Center for Brains, Minds and Machines,该中心旨在研究智能(Intelligence)——人类如何产生智能行为及如何让机器拥有这种智能】。会议上请到了两位重量级人物,人工智能之父——马文·明斯基(Marvin Minsky)和现代语言学之父、认知科学的奠基人之一——诺姆·乔姆斯基(Noam Chomsky)。

两个斯基在会上蜻蜓点水地讨论了一番,但心机的乔姆斯基在会后接受 The Atlantic 访谈时袒露了心扉(Noam Chomsky on Where Artificial Intelligence Went Wrong,The Atlantic)。乔老爷子认为,当前的「新人工智能」取向,聚焦于统计学习的技巧——挖掘数据与预测数据,不太可能获得关于智能本质背后的一般规律。

我们需要用科学的理论和精细实验来帮助我们发现无意义数据背后的规律,而不仅仅是把海量的数据堆给神经网络来拟合出一个漂亮的、不可解释的函数。后者对于工程绩效的提高或许能有立竿见影的效果,但对我们理解智能的本质毫无帮助。就好比年初时,AlphaGo 击败了李世石,我们真的能从中理解到它对围棋的任何知识么?不能。因为即使它真「理解」了,那也是神经网络的理解,我们人类无法从中窥探一二。
当然,也有不少研究者认为,这种苛求的透明性是无关紧要的:我们的大脑也是个黑箱,除了少数神经科学家,我们对自己的大脑的工作原理也一无所知,但我们仍然顶着个黑箱活得很好。的确,现实世界中有太多事物太过复杂,复杂到普通人穷尽一生也无法用语言去描述、解释,但科学家的使命也在于此,用科学、实验、数学的方法帮助我们去描述、解释那些不可描述的现象。而正是这些不可描述所造就的知识,转换成工程技术,成为我们今天幸福 wifi 生活的依赖。所以,回到本文的问题,怎样打开智能的黑箱呢?机器如何才能学习到知识?

“We do not have knowledge of a thing until we have grasped its why, that is to say, its cause.”

——Aristotle, Physics

一个答案是,因果关系。

什么是因果关系?一直以来,这个问题都是堪比「我是谁?我从哪里来?要到那里去?」的终极哲学问题。怀疑主义的休谟就认为,我们根本无从得知因果之间的关系,只能得知某些事物总是会连结在一起。这里,我们把哲学问题留给大家,先假设这个世界是存在因果关系的,即,原因导致了结果。

而对于现在的人工智能、机器学习来说,有几个老大难问题,或许都跟其有关,如

  • 学习的效率低,往往需要动用大量GPU并行运算个几天几夜,才能跑得“人模人样”;
  • 没有规划(planning),活在当下,很难预测规划更远的情景;
  • 迁移性差,学了几周打飞机的游戏后,学个打砖块游戏居然又得从头开始再花几周;
  • 模型不透明、难以解释,学到了烧香,学不到没辙,只好狂调参,自我纠错能力欠缺。
而建立因果模型就是去抓住事物的本质——那些稳定存在的客观观律。那么,我们要如何帮助 AI 建立因果模型?

人的智能最重要的两类能力,理解客观物理世界规律的能力和理解他人与自身的心理状态能力。都依赖于因果推理的能力,其即是科学研究的核心,也是人类智能的魅力所在。

在因果推论领域,有两个最著名的因果模型 Rubin Causal Model (RCM; Rubin 1978) 和Causal Diagram (Pearl 1995) 。而后一个的作者,JudeaPearl,因为其因果推理的工作对人工智能领域的卓越贡献,获得了 2011 年的图灵奖。

Pearl开创了贝叶斯网的一系列工作(贝叶斯网是概率论和图论相结合的产物),而有向无环图(Directed Acyclic Graph),便是一类用于表达因果关系的贝叶斯网。当利用因果关系建立贝叶斯网时,实际上是在基于因果关系进行条件独立假设,所有的假设可以归纳为因果马尔科夫假设。
Pearl 认为,因果的假设(或随机化实验),是作出因果推论的一个必要条件。所谓 Nocauses in – no causes out (Cartwright, 1989),没有因果假设只有数据,是无法得到因果关系的。而现在的深度学习算法,往往从数据驱动的角度出发,而机器获得的这些数据本身并没有提供关于因果的任何信息,所以其理论的上限也止步于相关性的预测。Pearl 关于人工智能和因果革命的论述见今年 10 月 Edge 的访谈(Engines of Evidence,https://www.edge.org/conversation/judea_pearl-engines-of-evidence)。 更多关于因果推理和贝叶斯网的内容,可见 Judea Pearl 的 Causality(2011)一书和他个人主页(http://bayes.cs.ucla.edu/jp_home.html)。

对于心智如何构建、知识如何获得,MIT的计算认知科学家,JoshuaTenenbaum ,曾在 2011 年 Science 上发文(How to Grow a Mind: Statistics, Structure,and Abstraction)探讨了三个问题:

我们如何运用抽象的知识从少量样本中学习与推理?

抽象知识在不同领域、任务中如何被普遍表征?

抽象知识自身如何获得?

作者在文中列举了诸多认知科学中的证据,来说明结构、符号化的抽象对于我们知识构建的重要性。这些思想也被付诸于 2015 年的 Bayesian Program Learning (Science, 2015)中。而在本次 NIPS 大会上,Josh 也应邀展示了我们之前介绍过的一篇文章:Building Machines That Learn and Think Like People。该文中也同样强调了因果结构——为模型加入因果(causal)、组合(compositional )和层次(hierarchical )的结构,对于现有神经网络的重要性。而这种抽象层次的构建,正是智能系统的核心。

在这些思想上,伦敦帝国理工学院的学者们,提出将符号化的抽象表征过程嵌入到 DRL 的框架中,来帮助 AI 进行更高层次的认知抽象,如推理、规划、学习迁移等。同时,这一表征模块,如抽象概念的学习、组合生成新的概念、先验的知识、因果推理,也使得AI的学习机制更加透明、可理解。

今年 NIPS 大会的最佳论文,颁给了《ValueIteration Networks》(VIN),其主要作者来着 UCB 的人工智能实验室(BAIR)。他们在VIN中嵌入了一个模块(value iteration module),让网络学习如何做长远的规划(learning to plan)。传统 model-free 的深度强化学习模型(如deep Q-learning),只能学到状态(state)到行为(action)的直接映射,这种依赖于训练数据 s-a 连接的映射,使得其在面对未知的数据集时绩效降低。而 VIN 的工作,实际上为网络构建了一个抽象的层次,一个规划模块,让其先学习到一个策略的网络,再从中选取相应的行为,从而帮助提高了其模型的泛化能力。

而以上种种工作,因果模型也好、抽象的层次也好,都是为了能一步步打开智能的黑箱,更接近智能的本质。而打开黑箱的一小步,便是智能的一大步。❖

参考文献:

Pearl, J. (2009). Causality. Cambridge universitypress.

Tenenbaum, J. B., Kemp, C.,Griffiths, T. L., & Goodman, N. D. (2011). How to grow a mind: Statistics,structure, and abstraction. Science, 331(6022), 1279-1285.

Lake, B. M., Salakhutdinov,R., & Tenenbaum, J. B. (2015). Human-level concept learning throughprobabilistic program induction. Science, 350(6266), 1332-1338.

Lake, B. M., Ullman, T. D.,Tenenbaum, J. B., & Gershman, S. J. (2016). Building machines that learnand think like people. arXivpreprint arXiv:1604.00289.

Tamar, A., Levine, S., &Abbeel, P. (2016). Value Iteration Networks. arXiv preprintarXiv:1602.02867.

Garnelo, M., Arulkumaran, K.,& Shanahan, M. (2016). Towards Deep Symbolic Reinforcement Learning. arXivpreprint arXiv:1609.05518.

相关阅读
  • 文化混搭,你看不看得惯?| 大脑前沿
  • 校园霸凌,对孩子的影响也许持续40年 | 大脑前沿
  • 网络数据评估抑郁?切入点是你爱用的滤镜 | 大脑前沿
  • 请耐心的、谦虚地练习吧 | 好书推荐


    关注 安人心智


微信扫一扫关注公众号

0 个评论

要回复文章请先登录注册