您的位置:网站首页 > 男性心理 > 正文

DeepMind重大突破:DNN具有人类行为认知心理学破解黑箱

类别:男性心理 日期:2018-8-20 3:33:08 人气: 来源:

  DeepMind 的最新论文称过去“首次”将认知心理学方法引入了对深度神经网络黑箱的理解研究中,并用认知心理学的方法发现了深度神经网络存有和人类儿童在学习词汇时也存在的“形状偏好”的行为。此文一出,就有学者指出,DeepMind 是在将自己的研究包装为全新的研究。

  从识别和推理图像中的物体,到以超人的水准玩 Atari 和围棋游戏,深度神经网络已会完成很多了不起的任务。而随着这些任务和网络结构变得越来越复杂,神经网络学习得到的解决方案也变得越来越难以理解。

  认知心理学通过测量行为来推断认知的机理,有大量文献描述这些机理,更不乏相关的实验论证。随着我们的神经网络在一些特定任务上接近人类水平,认知心理学中的一些方法和黑箱问题的关系越来越紧密。

  为了展示这一点,我们的研究报告包括了一个案例研究:我们设计了一个实验,来阐明人类认知,从而帮助我们理解深度神经网络是如何完成一个图像分类任务的。

  我们的研究显示,认知心理学家观察到的行为,同样出现在深度神经网络中。而且,对于网络是如何完成图像分类任务的,研究结果出有用且令人惊讶的洞见。更笼统地说,案例研究的成功体现出了使用认知心理学理解深度学习系统的潜力。

  在我们的案例研究中,我们思考了儿童是如何识别和标识物体的——认知发展心理学对此研究较为丰富。儿童从一个示例中猜出一个单词的意义——所以称为小样本词汇学习——进行得是如此简单,让人禁不住认为小样本学习是一个简单的过程。然而,哲学家Willard Van Orman Quine提出的经典思想实验却展现出这是个多么复杂的问题。

  一位田野语言学家去拜访一个语言完全不同的文化。该语言学家正在努力从一位热心的本地人那里学一些词语。这时一只兔子迅速地跑过。本地人说:“gavagai”,语言学家这时需要推理这个新词语的意义。语言学家面对的可能性多种多样,“gavagai”指的可能是兔子、动物、白色的东西、这只具体的兔子或是兔子的某个部位。有无数种可能的推理,人类如何能选出对的那一个?

  50年以后,对于能够进行小样本学习的深度神经网络,我们有了同样的问题。比如 Matching Network——DeepMind 开发出的一种神经网络。这一模型采用了注意力和记忆方面的最新进展,凭借一个孤立样本就取得了 ImageNet 图像分类任务中的目前最佳性能。

  为了理解这是如何做到的,我们考察了发展心理学的研究。这些研究发现,儿童会通过采用归纳偏好来消除许多不正确的推理,找到正确的推理。这种偏好包括:

  整体偏好:通过整体偏好,儿童假设一个词语指向的是一个完整物体,而非其组件(这排除了“gavagai”是兔子某个部分的想法);

  分类偏好:通过分类偏好,儿童假设一个词语指向的是一件事物的基本类别(这减小了“gavagai”是所有动物的可能性)

  形状偏好,通过形状偏好,儿童假设一个名词的意义是基于一件事物的形状而颜色或材质(这减小了“gavagai”是白色物体的可能性)

  认知心理学中外部刺激的部分样例,用于测量我们深度网络的形状偏好。由印第安纳大学认知发展实验室的 Linda Smith 提供。

  我们采用的经典的形状偏好实验过程操作如下:我们向深度神经网络展示了三个物体的图形:一个测试物体,一个与测试物体颜色相同但形状不同的物体,一个与测试物体形状相同但颜色不同的物体。之后我们通过记录测试物体和和形状相同物体而非颜色相同物体被做出同样标注的次数占比来测量形状偏好。

  Matching network 认知心理学实验的示意图。Matching network 将测试用物体(左图)与形状相同物体A(上图,中)与颜色相同物体B(上图,右)进行匹配。输出结果(右下)取决于 Matching network 形状偏好的强度。

  我们用我们的深度网络(Matching Network 及生成基准模型)来尝试这一实验,并且发现我们的网络如同人类一样对物体的形状有更强的偏好(相比较对物体的颜色或质地而言)。换言之,它们也具备形状偏好。

  这说明 Matching Network 及生成分类模型采用了基于形状的推导偏好来剔除错误的假设,向我们清晰地展示了它们是如何掌握小样本词汇学习的。

  对于形状偏好的观察结果并不是唯一有趣的发现:我们还观察到,形状偏好在网络训练之初是逐步的。这不人联想到人类形状偏好的发展过程:心理学家们发现年龄偏大的儿童的形状偏好高于年龄偏小的儿童,而展现出的形状偏好最高。

  我们还发现基于初始化和训练时随机采用的样本的不同,网络展现出的偏好水平也有所差异。因此我们认识到,在深度学习系统的实验中,必须通过大量的训练模型样本来得出可靠的实验结果,就如同心理学家不能够仅通过一个实验对象得出结论一样。

  此外,我们注意到,即便各自的形状偏好非常不同,不同的网络也展现出同等的小样本学习的能力,显示出不同的网络在解决复杂问题时能够各自找出同等有效的方法。

  这一神经网络结构中此前未被辨识的偏好的发现证明了使用人工认知心理学来解读神经网络解决问题过程的可能性。其他一些领域中,情景记忆的理论可被用来理解情景记忆结构,而语义认知的技术可被用于理解最近出现的概念形成模型。这些及其他一些领域内的心理学相关研究非常丰富,成为我们解决“黑箱”问题及深入理解神经网络行为的新工具。

  深度神经网络(DNN)在一系列广泛的复杂任务上取得了进展,对于深度神经网络给出的解决方案,我们已经无解其本质。虽然这方面的研究一直在进行,但还没有人利用认知心理学家发明的一系列研究人类认知的实验方法。为了探索将认知心理学方法应用于此问题的潜在价值,我们从发展心理学中选取了一种较为成熟的分析方法,将其应用于对深度神经网络的研究中。这种分析方释了儿童是如何学习物体的词语名称的。凭借使用受认知心理学实验的刺激的数据集,我们发现,在 ImageNet 上训练的最先进的小样本学习模型,展示出了和人类一样的偏好:它们倾向于根据形状对物体分类,而非颜色。这种形状偏好在架构相同但种子不同的模型中有很大差异,甚至在训练过程中随种子不同而波动,不过分类性能几乎相当。研究结果体现了认知心理学工具在 DNN 隐藏计算过程方面的能力,同时也给我们提供了一个人类词汇学习的计算模型。

  DeepMind 的论文介绍博客刚发了几个小时,就有科罗拉多大学的学者Brian Mingus 指出,DeepMind 是把自己的研究包装成了全新的。

  虽然大多数现代深度学习研究者对模型阐释的研究没有从认知心理学中借鉴,但如果说“从没有人做过”,则也是不对的。

  自从上世纪 80 年代Parallel Distributed Processing()教材问世,认知心理学家一直在使用深度神经网络作为大脑模型;当然,有人会认为如果反过来,将大脑看作是你模型的模型,则是全新的研究。然而最终,这种没什么意义,因为这两种基本上是相等的:当你研究得足够深入,把人类大脑概念化,看作是一个深度神经网络,那么当你研究深度神经网络时,不把人类认知投射上去,是不太可能的。

  所以,到底是怎么回事?在 Science 上发表的一篇名为The Last Inventorof the Telephone()的论文里,LSTM和神经网络开创者之一的Jürgen Schmidhuber(他可能是诸位“之父”中名声最不显的一个)谈到了“学术抄底”的现象,认为科学界和工程界都有此类现象:当新研究者发现别人已经做过的研究,新研究者有机会把它包装成是自己全新的研究。这当然可以使新研究者名利双收,但互联网的存在则有助于我们打破这一,把功劳归功于原始研究者。在认知心理学的历史中,我们会发现丰富的理论基础,不仅是把人类理解为深度学习模型的,也包括把深度学习模型当作人类去理解。

  对于在这一领域有兴趣深入研究的人员,我推荐阅读网上的教材Computational Cognitive Neuroscience()。这一科罗拉多大学 CCN Lab 的书目包括上万份覆盖了整个认知心理学、神经科学等领域历史的文献,也包括聚焦于理解用于理解我们自身的深度神经网络的知识(请注意不要混淆Computational Cognitive Neuroscience和Cognitive Computational Neuroscience,后者是一个即将到来的新的会议)

  最后,如果想了解深度学习更为“”的历史,我推荐你阅读这篇精彩的综述()。如果你对“模仿”你自己大脑的深度学习模型感兴趣,而且希望使用深度学习模型来塑造你对大脑的理解,或者使用认知心理学理解你的深度学习模型,季建业 周冰试试这个明确为这一目标设计的深度学习模拟器:emergent()。

  本文由 恒宇国际(www.neivn.cn)整理发布

0
0
0
0
0
0
0
0
下一篇:没有资料

网友评论 ()条 查看

姓名: 验证码: 看不清楚,换一个

推荐文章更多

热门图文更多

最新文章更多

关于联系我们 - 广告服务 - 友情链接 - 网站地图 - 版权声明 - 人才招聘 - 帮助

声明:网站数据来源于网络转载,不代表站长立场,如果侵犯了你的权益,请联系客服删除。

CopyRight 2010-2016 都市男性网- All Rights Reserved