模型解释-LIME的原理和实现

摘要

这一篇文章我们会介绍一种模型解释的方法, LIME, 即会通过简单的模型来解释黑盒模型. 我们会介绍LIME的简单的原理, 和一个例子, 使用LIME来解释使用Pytorch搭建的模型.

简介

这一部分介绍使用LIME来进行模型解释. LIME的全称为Local Interpretable Model-agnostic Explanations. 在这一部分我们会介绍LIME方法的主要的思想, 和结合Pytorch来进行解释, 解释使用Pytorch搭建的模型. 下面是一些LIME的参考资料.

之前我们也讲过一个模型解释的方法, 叫做Saliency Map, 之前的链接如下:Saliency Maps的原理与简单实现(使用Pytorch实现)

参考资料

模型的可解释性书本的一章:5.7 Local Surrogate (LIME)

原始论文: Ribeiro, Marco Tulio, Sameer Singh, and Carlos Guestrin. “Why should I trust you?: Explaining the predictions of any classifier.” Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining. ACM (2016).

Python的库LIME:Lime: Explaining the predictions of any machine learning classifier


LIME的原理

LIME的想法很简单, 我们希望使用简单的模型来对复杂的模型进行解释. 这里简单的模型可以是线性模型, 因为我们可以通过查看线性模型的系数大小来对模型进行解释. 在这里, LIME只会对每一个样本进行解释(explain individual predictions).

LIME会产生一个新的数据集(这个数据集我们是通过对某一个样本数据进行变换得到), 接着在这个新的数据集上, 我们训练一个简单模型(容易解释的模型), 我们希望简答模型在新数据集上的预测结果和复杂模型在该数据集上的预测结果是相似的. 我们可以将我们的问题表达为下面的表达式:

上式中每一个字母的含义:

f表示原始的模型, 即需要解释的模型.

g表示简单模型, G是简单模型的一个集合, 如所有可能的线性模型.

Pi_x表示我们新数据集中的数据x'与原始数据instance x的距离.

Ω(g)表示模型g的复杂程度.

我们希望原始模型f与新模型g预测值之间的误差是小的. 简单来说, 我们可以通过下面的式子来衡量两个式子预测值之间的差:

于是整个LIME的步骤如下(即训练模型g的步骤)

选择我们想要解释的变量x.

对数据集中的数据进行扰动得到新的数据, 同时计算出黑盒模型对这些新的数据的预测值.

对这些新的sample求出权重, 这个权重是这些数据点与我们要解释的数据之间的距离.

根据上面新的数据集, 预测值和权重, 训练出模型g

通过模型g来对模型f在x点附近进行解释.

那么我们如何对数据集进行扰动来得到新的数据, 对于表格数据, 我们可以分别扰动每一个特征, 从一个正态分布(均值和方差为这个特征的均值和方差)中进行随机抽样. 这样做会有一个问题, 即不是从我们要解释的数据为中心进行采样, 而是从整个数据集的中心进行采样. (LIME samples are not taken around the instance of interest, but from the training data's mass center, which is problematic.)

下面我们通过一张图片来对上面的过程进行解释(这张图片是上面第一个参考链接中的).

图A表示: 随机森林的分类结果, 颜色深的为一类, 颜色浅的为一类.

图B表示: 通过对特征进行扰动得到的新的数据集.

图C表示: 对每一个数据进行加权.

图D表示: 对简单的模型进行求解.

存在的问题: 定义我们要解释的点的周围是困难的.


对Pytorch搭建的模型进行解释

这一部分我们会看一下如何使用LIME来对Pytorch搭建的模型进行解释. 我们会使用库LIME来完成相关的模型的解释: Lime: Explaining the predictions of any machine learning classifier

这是一个LIME和Pytorch结合的例子:Using Lime with Pytorch. 这是一个解释图片的例子, 我们下面看一个解释表格数据的例子(我们就只看一下解释的步骤, 前面模型的训练和数据的处理就不放了).

我在GIthub上上传了一个LIME与Pytorch结合使用的例子, 链接为:Github-LIME与Pytorch结合

对于这个例子的理解, 可以参考文章:Pytorch例子演示及LIME使用例子

加载数据集和模型

这一部分在这里不是很重要, 就不详细进行说明了. 我们使用Pytorch训练好的模型叫fullModel, 导入的数据集为XData和YData.

定义预测函数

我们需要定义一个函数, 输入的是模型和x, 输出的是预测的概率.


# 定义分类器

defbatch_predict(data, model=fullModel):

"""

    model: pytorch训练的模型

    data: 需要预测的数据

    """

X_tensor = torch.from_numpy(data).float()

model.eval()

device = torch.device("cuda"iftorch.cuda.is_available()else"cpu")

    model.to(device)

    X_tensor = X_tensor.to(device)

    logits = model(X_tensor)

    probs = F.softmax(logits, dim=1)

returnprobs.detach().cpu().numpy()

上面函数的效果就是输入数据和模型, 输出的为每一个分类的概率, 下面看一下他的输出.

对数据进行解释

接着我们就是对我们的黑盒模型局部进行解释.


# 创建解释器

importlime

importlime.lime_tabular

我们需要创建模型的输入和输出.

X_tensor = torch.from_numpy(XData[X_index]).float()

y_tensor = torch.from_numpy(np.array(y)).long()

接着创建解释器. 下面的feature_names就是每一个feature的名字.

targets =  ['back', 'land', 'neptune', 'pod', 'smurf', 'teardrop']

explainer = lime.lime_tabular.LimeTabularExplainer(XData[X_index],

feature_names=dfDataTrain.columns[:-4].values,

                                                  class_names=targets,

discretize_continuous=True)

最后我们对一个样本进行解释, 下面我们解释的是第505个样本.

# 解释某一个样本

exp = explainer.explain_instance(XData[X_index][505],

                                batch_predict,

                                num_features=5,

                                top_labels=5)

最后我们将解释的结果显示出来.

exp.show_in_notebook(show_table=True, show_all=False)

因为这是一个多分类的问题, 我们可以显示预测为某一个分类的原因.

exp.as_pyplot_figure(label=5)

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 201,552评论 5 474
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 84,666评论 2 377
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 148,519评论 0 334
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,180评论 1 272
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,205评论 5 363
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,344评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,781评论 3 393
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,449评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,635评论 1 295
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,467评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,515评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,217评论 3 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,775评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,851评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,084评论 1 258
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,637评论 2 348
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,204评论 2 341