论文笔记:EXPLAINABLE ARTIFICIAL INTELLIGENCE

EXPLAINABLE ARTIFICIAL INTELLIGENCE

[TOC]

摘要

现在的人工智能非常成功,但是通常都是黑匣子的方式运用的,由于nested non-linear structure(嵌套的非线性结构),中间的过程具体起到了什么样的作用无法解释清楚。提出了两种方法解释深度学习模型:一种方法计算预测对输入变化的敏感性,另一种方法根据输入变量有意义地分解决策。(one method which computes the sensitivity of the prediction with respect to changes in the input and one approach which meaningfully decomposes the decision in terms of the input variables)

1 Introduction

介绍了可解释AI的重要性,特别对于医疗和自动驾驶领域。第三节介绍了两个模型:敏感性分析(sensitivity analysis)和层相关传播(layer-wise relevance propagation)。

2

介绍了可解释性的重要性。

  1. 系统验证:
  2. 系统改进:改进系统的第一步是了解模型的弱点,但是对黑匣子模型进行分析要困难的多。越了解一个模型正在干什么以及为什么会失败有助于改进它们。
  3. 从系统中学习:从训练的模型中提取出人类发现不了的模式。
  4. 遵守法律:制定更适合于人类社会的模型。

3 Methods

3.1 SA

灵敏度分析(SA)量化了每个输入变量的重要性,但是这种方法有缺点。

R_{i} = \Vert \frac{\vartheta}{\vartheta x_{i}} f(x) \Vert

3.2 LRP

一个分解现代人工智能系统预测的通用框架,feedforwards neural networks and bag-of-words models , long-short term memory (LSTM) networks and Fisher Vector classifiers 。识别出有关预测的最重要的要素,显示了与泰勒分解(Taylor Decomposition)的密切联系。
Layer-wise relevance propagation:
\sum_{i}R_{i}=\sum_{j}R_{j}=\cdots=f(x)
it redistributes the prediction f(x) backwards using local redistribution rules until it assigns arelevance score Ri to each input variable (e.g., image pixel).这种特性可以称为相关性保持。这个性质表明,在分配的每一步,相关性的总量是保持不变的,在再分配的过程中,每个输入变量的相关性评分Ri决定了该变量的对结果的重要性。

R_{j}=\sum_{k}\frac{x_{j}w_{jk}}{\sum_{j}x_{j}w_{jk}+\epsilon}R_{k}

x_{j}l 层的激活函数,R_{k}l+1 层神经元的联系分, w_{jk} 是神经元jk的连接权重。\epsilon 是保证除数非0。
直观上这样的定义有两个标准:

  1. 越活跃的神经元会获得很多的得分
  2. 更强的连接w_{jk}会获得更高的分

另一种“alpha-beta”规则,()^{+}()^{-}分别表示正和负的部分:
R_{j}=\sum_{k}(\alpha \cdot \frac{(x_{j}w_{jk})^{+}}{\sum_{j}(x_{j}w_{jk})^{+}}-\beta \cdot \frac{(x_{j}w_{jk})^{-}}{\sum_{j}(x_{j}w_{jk})^{-}})R_{k}
为了保证相关性的守恒,强制使得\alpha - \beta = 1,当\alpha = 1时,证明该式子符合深度Taylor Decomposition。

3.3 Software

LRP 的一个工具箱toolbox

4 Evaluating

评估模型:一种基于扰动分析的方法(Perturbation Analysis),使用均匀分布的随机样本进行扰动,避免误差。

  1. 输入变量的扰动对于预测具有重要意义,与输入维数的扰动相比,变量的扰动对预测分数下降的幅度更大。
  2. 解释模型对输入变量提供了一个Score,因此,可以根据这些分数对输入变量排序。
  3. 我们可以迭代扰动输入变量,从最重要的开始,并在每个扰动之后记录预测分数。预测得分的一个平均下降可以判断模型的一个客观指标。因为一个大的下降表明该模型正确识别出最重要的输入变量。

Reference

W. Samek, T. Wiegand, and K.-R. Müller, “Explainable Artificial Intelligence: Understanding, Visualizing and Interpreting Deep Learning Models,”arXiv:1708.08296 [cs, stat], Aug. 2017.

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,980评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,178评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,868评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,498评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,492评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,521评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,910评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,569评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,793评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,559评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,639评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,342评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,931评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,904评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,144评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,833评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,350评论 2 342

推荐阅读更多精彩内容