导读:大数据为什么不够聪明?比概率语言更强大的思考工具是什么?科幻电影中的强人工智能到底怎样实现?如何让智能机器像人一样思考?搞清楚因果关系才能拨云见日。
大数据为什么不够聪明?比概率语言更强大的思考工具是什么?科幻电影中的强人工智能到底怎样实现?如何让智能机器像人一样思考?搞清楚因果关系才能拨云见日。
图灵奖得主、“贝叶斯网络之父”朱迪亚·珀尔(Judea Pearl)的重磅力作 《为什么:关于因果关系的新科学》 中就为我们解答了这些问题。
人工智能领域中的大多数问题都是决策问题。1939 年,统计学家亚伯拉罕·沃德撰文指出参数估计和假设检验都是统计决策问题,甚至计划把整个统计学纳入统计决策理论的框架。损失函数是统计决策的起点,给定了损失函数,贝叶斯学派将始终如一地选择期望损失最小的决策,有或没有观测数据时都是如此。频率派则需要预先制定决策规则,基于损失函数和样本定义一个风险函数,然后根据某些原则(如极大极小原则、贝叶斯风险原则等)来选择最优的决策。
如果决策是基于被动接受的观测数据,那么它就处于因果关系之梯的第一层级,强烈地依赖于观测数据,因而难免带有偏颇。而有了第二层级的利器——干预,决策就可以不受观察样本的束缚,把一些样本无法反映的事实揭露出来。简而言之,达到第二层级的 AI 将具有主动实施行动来分析因果效应的能力,这种能力使得决策行为更加智能化。
第三层级的反事实推理允许机器拥有“想象能力”。反事实推理考虑的是一个假想世界,是无法通过直接观测数据进行推理的,必须借助一个因果模型。
因果关系之梯
时至今日,深度学习依然是 AI 的热点方法,甚至有人将之盲目地等同于 AI。其实,机器学习的方法多如牛毛,深度学习只是沧海一粟。理论上可以证明,人工智能即便在因果关系之梯的最低层级做到极致,也无法跃升到干预层面,更不可能进入反事实的世界。
作为处在因果关系之梯最低层级的机器学习技术,大数据分析就是多变量统计分析,深度学习就是隐层多了一些的神经网络而已,理论上没有太多新意。珀尔教授认为大数据分析和深度学习(甚至多数传统的机器学习)都处于因果关系之梯的第一层级,因为它们的研究对象还是相关关系而非因果关系。
珀尔并没有贬低处于因果关系之梯最低层级的相关性分析,他只是在提醒我们不要满足于这个高度,还要继续向上攀登。不同层级之间也可以形成合作,例如,在实践中,深度学习可用于拟合强化学习中的策略,二者强强联手,成为“深度强化学习”,后者曾作为核心技术之一在 AlphaGo(“阿尔法狗”)那里大放异彩。
众所周知,这轮 AI 的爆发在很大程度上得益于算力的提升,例如,深度学习就是人工神经网络借助算力的“卷土重来”,把数据驱动的方法推向了一个巅峰。人们甚至产生了一个幻觉 ——“所有科学问题的答案都藏于数据之中,有待巧妙的数据挖掘技巧来揭示”。珀尔教授批判了这种思潮,他将因果模型置于更高的位置,把数学或统计建模的荣耀重新归还给了相应领域的专家。我们希望,未来的机器学习可以不再靠炼金术士的碰运气而获得成功,随着知识推理和计算越发受到关注,可解释 AI 将从关于因果关系的新科学中汲取更多的力量,甚至可以闯进反事实的世界。
DeepMind 研发的 AlphaGo 围棋程序在 2016 年首次打败了人类顶尖围棋高手李世石,次年横扫所有人类高手取得全胜(包括以 3∶0 战胜柯洁)。聂卫平(九段)称它的水平为“至少二十段”。AlphaGo 采用深度强化学习和蒙特卡罗树搜索,其最终版本 AlphaGo Zero 仅需要 3 天便可自我训练至战胜李世石的水平。2017 年,DeepMind 宣布 AlphaGo“退役”, 不再参加任何围棋比赛。
在棋类游戏中,围棋所包含的巨大的搜索空间(其状态数远远超过整个宇宙中的原子数)一直是机器学习未能攻克的难题,甚至一度被认为在近期内是不可能被 AI 解决的。AlphaGo 的成功不仅让人们看到了强化学习和随机模拟技术(也称“蒙特卡罗”技术)的魅力,也让深度学习变得更加炙手可热。冷静之余,人们认识到 AlphaGo 的算法更适用于大规模概率空间的智能搜索,其环境和状态都是可模拟的。DeepMind 的创始人德米斯·哈萨比斯表示,对于那些环境难以模拟的决策问题(如自动驾驶),这些算法也无能为力。珀尔在《为什么》第十章也谈论了 AlphaGo,他认为缺乏可解释性是它的硬伤。
拿强化学习来说,它不同于有监督学习(supervised learning)和无监督学习(unsupervised learning),是基于马尔科夫决策过程发展起来的第三类机器学习方法——智能体通过与环境互动变得越来越“聪明”。强化学习和因果推断都寻求策略(policy),其中,行动之间是有因果关系的,但因果推断更开放一些,它可以利用数据之外的知识来推断策略的效果。强化学习允许推断干预的结果,因此能攀上因果关系之梯的第二层级。通过模拟环境,强化学习无须从现实世界获取观测数据来训练模型,所以也有可能产生反事实从而登上因果关系之梯的第三层级。尽管目前的强化学习很少用到先验知识,我们仍很好奇强化学习和因果推断的理论联系。
未来人工智能的发展也有“综合”的趋势。譬如,语音、图像、视频数据等都可以转换成文字,而 AI 技术则能帮助我们加深对数据的理解。同时,借助 AI 技术(包括因果推断)更好地理解数据也能助力模型训练并改进应用效果。同理,因果论和现有的机器学习等 AI 技术有没有可能联手互惠互利?例如,因果推断所考虑的变量越多,对计算的挑战就越大,那么,基于蒙特卡罗方法的近似计算是否能其助一臂之力?机器学习能否帮助和改进因果建模?这些问题都有待深入的研究。
因果的形式化理论,不仅解决了困扰统计学家很多年的一些悖论,更重要的是,(1)利用“干预”让人类和机器摆脱了被动观察,从而转向主动地去探索因果关系,以便做出更好的决策;(2)利用“反事实推理”扩展了想象的空间,从而摆脱了现实世界的束缚。这两点突破实现了因果革命,并分别构成了因果关系之梯的第二层级和第三层级的内容。沿着因果关系之梯,机器便有望拥有强人工智能。