百摩网
当前位置: 首页 生活百科

基于卷积神经网络的图像分类分析(决策树的复兴结合神经网络)

时间:2023-06-13 作者: 小编 阅读量: 1 栏目名: 生活百科

BAIR公布神经支持决策树新研究,兼顾准确率与可解释性。决策树的优势与缺陷在深度学习风靡之前,决策树是准确性和可解释性的标杆。然而,在图像分类数据集上,决策树的准确率要落后神经网络40%。走近神经支持决策树现在,这种两难处境终于有了进展。在这个NBDT中,预测是通过决策树进行的,保留高层次的可解释性。例如,给定类别Cat和Dog,WordNet将反馈哺乳动物。

机器之心报道

机器之心编辑部

鱼和熊掌我都要!BAIR公布神经支持决策树新研究,兼顾准确率与可解释性。

随着深度学习在金融、医疗等领域的不断落地,模型的可解释性成了一个非常大的痛点,因为这些领域需要的是预测准确而且可以解释其行为的模型。然而,深度神经网络缺乏可解释性也是出了名的,这就带来了一种矛盾。可解释性人工智能(XAI)试图平衡模型准确率与可解释性之间的矛盾,但 XAI 在说明决策原因时并没有直接解释模型本身。

决策树是一种用于分类的经典机器学习方法,它易于理解且可解释性强,能够在中等规模数据上以低难度获得较好的模型。之前很火的微软小冰读心术极可能就是使用了决策树。小冰会先让我们想象一个知名人物(需要有点名气才行),然后向我们询问 15 个以内的问题,我们只需回答是、否或不知道,小冰就可以很快猜到我们想的那个人是谁。

周志华老师曾在「西瓜书」中展示过决策树的示意图:

决策树示意图。

尽管决策树有诸多优点,但历史经验告诉我们,如果遇上 ImageNet 这一级别的数据,其性能还是远远比不上神经网络。

「准确率」和「可解释性」,「鱼」与「熊掌」要如何兼得?把二者结合会怎样?最近,来自加州大学伯克利分校和波士顿大学的研究者就实践了这种想法。

他们提出了一种神经支持决策树「Neural-backed decision trees」,在 ImageNet 上取得了 75.30% 的 top-1 分类准确率,在保留决策树可解释性的同时取得了当前神经网络才能达到的准确率,比其他基于决策树的图像分类方法高出了大约 14%。

BAIR 博客地址:https://bair.berkeley.edu/blog/2020/04/23/decisions/

论文地址:https://arxiv.org/abs/2004.00221

开源项目地址:https://github.com/alvinwan/neural-backed-decision-trees

这种新提出的方法可解释性有多强?我们来看两张图。

OpenAI Microscope 中深层神经网络可视化后是这样的:

而论文所提方法在 CIFAR100 上分类的可视化结果是这样的:

哪种方法在图像分类上的可解释性强已经很明显了吧。

决策树的优势与缺陷

在深度学习风靡之前,决策树是准确性和可解释性的标杆。下面,我们首先阐述决策树的可解释性。

如上图所示,这个决策树不只是给出输入数据 x 的预测结果(是「超级汉堡」还是「华夫薯条」),还会输出一系列导致最终预测的中间决策。我们可以对这些中间决策进行验证或质疑。

然而,在图像分类数据集上,决策树的准确率要落后神经网络 40%。神经网络和决策树的组合体也表现不佳,甚至在 CIFAR10 数据集上都无法和神经网络相提并论。

这种准确率缺陷使其可解释性的优点变得「一文不值」:我们首先需要一个准确率高的模型,但这个模型也要具备可解释性。

走近神经支持决策树

现在,这种两难处境终于有了进展。加州大学伯克利分校和波士顿大学的研究者通过建立既可解释又准确的模型来解决这个问题。

研究的关键点是将神经网络和决策树结合起来,保持高层次的可解释性,同时用神经网络进行低层次的决策。如下图所示,研究者称这种模型为「神经支持决策树(NBDT)」,并表示这种模型在保留决策树的可解释性的同时,也能够媲美神经网络的准确性。

在这张图中,每一个节点都包含一个神经网络,上图放大标记出了一个这样的节点与其包含的神经网络。在这个 NBDT 中,预测是通过决策树进行的,保留高层次的可解释性。但决策树上的每个节点都有一个用来做低层次决策的神经网络,比如上图的神经网络做出的低层决策是「有香肠」或者「没有香肠」。

NBDT 具备和决策树一样的可解释性。并且 NBDT 能够输出预测结果的中间决策,这一点优于当前的神经网络。

如下图所示,在一个预测「狗」的网络中,神经网络可能只输出「狗」,但 NBDT 可以输出「狗」和其他中间结果(动物、脊索动物、肉食动物等)。

此外,NBDT 的预测层次轨迹也是可视化的,可以说明哪些可能性被否定了。

与此同时,NBDT 也实现了可以媲美神经网络的准确率。在 CIFAR10、CIFAR100 和 TinyImageNet200 等数据集上,NBDT 的准确率接近神经网络(差距

神经支持决策树是如何解释的

对于个体预测的辩证理由

最有参考价值的辩证理由是面向该模型从未见过的对象。例如,考虑一个 NBDT(如下图所示),同时在 Zebra 上进行推演。虽然此模型从未见过斑马,但下图所显示的中间决策是正确的-斑马既是动物又是蹄类动物。对于从未见过的物体而言,个体预测的合理性至关重要。

对于模型行为的辩证理由

此外,研究者发现使用 NBDT,可解释性随着准确性的提高而提高。这与文章开头中介绍的准确性与可解释性的对立背道而驰,即:NBDT 不仅具有准确性和可解释性,还可以使准确性和可解释性成为同一目标。

ResNet10 层次结构(左)不如 WideResNet 层次结构(右)。

例如,ResNet10 的准确度比 CIFAR10 上的 WideResNet28x10 低 4%。相应地,较低精度的 ResNet ^ 6 层次结构(左)将青蛙,猫和飞机分组在一起且意义较小,因为很难找到三个类共有的视觉特征。而相比之下,准确性更高的 WideResNet 层次结构(右)更有意义,将动物与车完全分离开了。因此可以说,准确性越高,NBDT 就越容易解释。

了解决策规则

使用低维表格数据时,决策树中的决策规则很容易解释,例如,如果盘子中有面包,然后分配给合适的孩子(如下所示)。然而,决策规则对于像高维图像的输入而言则不是那么直接。模型的决策规则不仅基于对象类型,而且还基于上下文,形状和颜色等等。

此案例演示了如何使用低维表格数据轻松解释决策的规则。

为了定量解释决策规则,研究者使用了 WordNet3 的现有名词层次;通过这种层次结构可以找到类别之间最具体的共享含义。例如,给定类别 Cat 和 Dog,WordNet 将反馈哺乳动物。在下图中,研究者定量验证了这些 WordNet 假设。

左侧从属树(红色箭头)的 WordNet 假设是 Vehicle。右边的 WordNet 假设(蓝色箭头)是 Animal。

值得注意的是,在具有 10 个类(如 CIFAR10)的小型数据集中,研究者可以找到所有节点的 WordNet 假设。但是,在具有 1000 个类别的大型数据集(即 ImageNet)中,则只能找到节点子集中的 WordNet 假设。

How it Works

Neural-Backed 决策树的训练与推断过程可分解为如下四个步骤:

为决策树构建称为诱导层级「Induced Hierarchy」的层级;

该层级产生了一个称为树监督损失「Tree Supervision Loss」的独特损失函数;

通过将样本传递给神经网络主干开始推断。在最后一层全连接层之前,主干网络均为神经网络;

以序列决策法则方式运行最后一层全连接层结束推断,研究者将其称为嵌入决策法则「Embedded Decision Rules」。

Neural-Backed 决策树训练与推断示意图。

运行嵌入决策法则

这里首先讨论推断问题。如前所述,NBDT 使用神经网络主干提取每个样本的特征。为便于理解接下来的操作,研究者首先构建一个与全连接层等价的退化决策树,如下图所示:

以上产生了一个矩阵-向量乘法,之后变为一个向量的内积,这里将其表示为$\hat{y}$。以上输出最大值的索引即为对类别的预测。

简单决策树(naive decision tree):研究者构建了一个每一类仅包含一个根节点与一个叶节点的基本决策树,如上图中「B—Naive」所示。每个叶节点均直接与根节点相连,并且具有一个表征向量(来自 W 的行向量)。

使用从样本提取的特征 x 进行推断意味着,计算 x 与每个子节点表征向量的内积。类似于全连接层,最大内积的索引即为所预测的类别。

全连接层与简单决策树之间的直接等价关系,启发研究者提出一种特别的推断方法——使用内积的决策树。

构建诱导层级

该层级决定了 NBDT 需要决策的类别集合。由于构建该层级时使用了预训练神经网络的权重,研究者将其称为诱导层级。

具体地,研究者将全连接层中权重矩阵 W 的每个行向量,看做 d 维空间中的一点,如上图「Step B」所示。接下来,在这些点上进行层级聚类。连续聚类之后便产生了这一层级。

使用树监督损失进行训练

考虑上图中的「A-Hard」情形。假设绿色节点对应于 Horse 类。这只是一个类,同时它也是动物(橙色)。对结果而言,也可以知道到达根节点(蓝色)的样本应位于右侧的动物处。到达节点动物「Animal」的样本也应再次向右转到「Horse」。所训练的每个节点用于预测正确的子节点。研究者将强制实施这种损失的树称为树监督损失(Tree Supervision Loss)。换句话说,这实际上是每个节点的交叉熵损失。

使用指南

我们可以直接使用 Python 包管理工具来安装 nbdt:

pip install nbdt

安装好 nbdt 后即可在任意一张图片上进行推断,nbdt 支持网页链接或本地图片。

nbdt https://images.pexels.com/photos/126407/pexels-photo-126407.jpeg?auto=compress&cs=tinysrgb&dpr=2&w=32

# OR run on a local image

nbdt /imaginary/path/to/local/image.png

不想安装也没关系,研究者为我们提供了网页版演示以及 Colab 示例,地址如下:

Demo:http://nbdt.alvinwan.com/demo/

Colab:http://nbdt.alvinwan.com/notebook/

下面的代码展示了如何使用研究者提供的预训练模型进行推断:

from nbdt.model import SoftNBDT

from nbdt.models import ResNet18, wrn28_10_cifar10, wrn28_10_cifar100, wrn28_10 # use wrn28_10 for TinyImagenet200

model = wrn28_10_cifar10()

model = SoftNBDT(

pretrained=True,

dataset='CIFAR10',

arch='wrn28_10_cifar10',

model=model)

另外,研究者还提供了如何用少于 6 行代码将 nbdt 与我们自己的神经网络相结合,详细内容请见其 GitHub 开源项目。

    推荐阅读
  • 艺术特长生中考加分吗 浙江艺术特长生中考加分吗

    在2019年之前艺术特长生是加分的,但是从2019开始取消中考特长生加分,这是教育部颁发的《关于做好2019年普通中小学招生入学工作的通知》提到的。中考加分项目1、考生是归侨、归侨子女或者华侨子女、港澳台籍考生,符合规定的留学人员子女可以加5分。

  • 小猪喘气用什么药(小猪喘气用什么药打针)

    猪喘气在养猪场非常常见,尤其是秋冬季节。遇见这个病,养猪人都比较头疼,因为它不好治。治疗伪狂犬之外的猪喘气病,可以用杀菌消炎+抗病毒+止咳平喘等多重功效。对于喘气不太严重的猪,可以使用替米考星+盐酸多西环素+麻杏石甘散+蓝圆非太保,这个方案给猪群拌料,用药至少要用够7-10天。

  • 许飞尚雯婕超女pk(许飞尚雯婕台上吵架)

    许飞和尚雯婕在台上的这番吵架其实并不是06超女最狗血的片段,06超女中的不合其实由来已久。多年后谭维维多次谈起过这件事情,也对当年自己的冲动表示了后悔,对尚雯婕表示了歉意,那个时候的谭维维年少气盛,认为自己天下无敌,所以才有了那首歌曲。其实谭维维当年这首歌曲也并不是空穴来风,当年的她无论是实力还是人气,在超女中也算是佼佼者,她的音乐实力确实要优于尚雯婕很多,所以不服气也是理所当然的。

  • 冯绍峰赵丽颖在哪结的婚(冯绍峰赵丽颖官宣离婚)

    2016年,赵丽颖冯绍峰合作《西游记之女儿国》,2017年恋情曝光,同年两个人再次合作《知否》,戏里戏外的甜蜜羡煞旁人。2018年10月官宣结婚,三个月后官宣怀孕的喜讯。在分工方面其实也有做得比较好的明星夫妻,比如袁弘和张歆艺,以及蔡少芬和张晋。袁弘和张歆艺有了孩子之后,两个人商量各自减少工作量,并且做好分工和协调。两地分居的夫妻,他们各自需要应对各自的生活,还要维持脆弱的婚姻。

  • 庐山烟雨浙江潮(庐山烟雨浙江潮介绍)

    庐山烟雨浙江潮《庐山烟雨浙江潮》是北宋诗人苏轼创作的一首七言绝句。翻开苏轼的诗集,描写庐山和杭州的诗篇可说不少,但是这一首《观潮》所流露的思想感情却很特别,极具禅味。《观潮》一诗,也是继于以往人生体验,看清自己心随境转、杂念丛生的冲动之后的淡雅,不随着冲动妄念走。苏轼借《观潮》为题,抒写了一种经历妄念躁动,转而豁然超越的思想,有佛家的禅宗情调。

  • 蒸汽平台和steam国区区别(蒸汽平台上线后)

    宣传片中介绍了目前蒸汽平台上线的《戴森球计划》《了不起的修仙模拟器》等作品。关于steam中国版出现后的未来可能性,已经在玩家群体内产生大量争论。Valve数据显示,2020年Steam月活玩家数达到1.2亿。但付出的代价是失去了目前国区“低价区”的优惠,以及可能因为IP长期在国内与地区不符,遭到steam官方的处理。持这种观点的人,恐怕忽视了steam对目前国内独立游戏生态的支撑价值。

  • 年味儿来了(熟语中的年味儿)

    河南三门峡陕州区西张村镇南沟村,83岁的民间艺人员月英展示牛年剪纸作品。“忙年”春节熟语以年终岁首为时间节点,其主要内容之一是对“忙年”活动的记述和反映。全国各地的春节饮食文化习俗各具特色,相关熟语也是琳琅满目。娱乐在享受劳动果实的同时,春节也是民众娱乐的最好时光。当然,由于天气、交通、工作等的原因,许多人会在外地过春节或旅游过节,今年因为疫情防控,就地过年更是成为常态。

  • 粉红色的皮衣怎么搭配(粉红色的皮衣如何搭配)

    修身的连衣裙不仅能很好显示美好身材曲线,更能带来成熟性感的风格。粉色皮衣+牛仔裤+铆钉短靴皮衣搭配牛仔裤一直就是经典的穿法,不容易出差错。不过在选牛仔裤时要注意咯,粉红色的皮衣,选择的牛仔裤最好是蓝色、浅蓝色、浅灰色和黑色。再搭上铆钉短靴,经典帅气的装扮。粉色皮衣+豹纹长款毛衣+长靴穿上粉色皮衣的女孩儿显得十分干练和大气,如果再配上同样大气的豹纹长款毛衣,就会显得很搭。

  • 蛋白质食物(蛋白质食物是什么)

    蛋白质食物蛋白质为人体必需的营养物质体,一般分为植物蛋白和动物蛋白,所以主要存在于豆类和肉类中。其中肉类、鱼虾类、奶类、蛋类、大豆类中,富含的蛋白质属于优质蛋白,食用后易于人体吸收。而谷类中的蛋白质属于植物蛋白,谷类中的蛋白质赖氨酸通常不足,消化吸收不如优质蛋白质,但由于日常食物摄入的能量大多为谷类提供,谷物类中的蛋白质是摄入蛋白质的主要来源。

  • 高速上前方堵车怎么办(拿生命走捷径)

    深入安塞区金明街道办曹村,通过发放宣传单、案例讲解、张贴公告等方式进行交通安全普法教育,杜绝侥幸心理,促进交通安全意识落地生根。下一步,安塞区人民检察院将持续加强与相关部门的沟通协作,不断提升公益诉讼检察办案实效,以高质量公益诉讼检察工作护航人民群众高品质生活。高速公路限速标志标明的最高时速不得超过一百二十公里。交通事故的损失是由非机动车驾驶人、行人故意碰撞机动车造成的,机动车一方不承担赔偿责任。