随机森林简单总结

    如果有兴趣,请大家关注本人公众号AI Engine(I是大写的i)

    之前本人对决策树以及其实现分类的简单原理和实例。其实对于二分类问题就可以理解成简单的二叉树,根据每个特征对所有的数据进行逐层的分类。但是决策树的主要缺点在于,即使做了预剪枝(此前介绍过),它也经常会过拟合,泛化性能很差。因此,在大多数应用中,往往使用决策树集成的方法来替代单棵决策树。

这样我们便引出了今天的主题,决策树的集成:随机森林(RF)与xgboost(下次介绍)。随机森林的组成元素为n棵决策树,每棵树的判断原理与单棵决策树决策并无较大差别,但是每棵树之间并不是完全相同。随机森林背后的思想是:每棵树的预测可能都相对较好,但可能对部分数据过拟合。如果构造很多树,并且每棵树的预测都很好,但都以不同的方式过拟合,那么我们可以对这些树的结果取平均值来降低过拟合。既能减少过拟合又能保持树的预测能力,这可以在数学上严格证明。 下面介绍随机森林的简单使用。

首先我们要构造一个随机森林。随机森林中的树均不完全相同,这是因为我们构造每一棵树的时候选取的数据集与特征集均不相同。在数据的选取方面,我们要对数据进行自助采样。也就是说,从n_samples个数据点中有放回地(即同一样本可以被多次抽取)重复随机抽取一个样本共抽取n_samples次这样会创建一个与原数据集大小相同的数据集,但有些数据点会缺失(大约三分之一),有些会重复。举例说明,比如我们想要创建列表[‘1', ‘2', ‘3', ‘4']的自助采样。一种可能的自主采是[‘2', ‘3', ‘1', ‘1'],另一种可能的采样为[‘4', ‘1', ‘2', ‘1’]等等。接下来,基于每个新创建的数据集来构造决策树。但是,对于构造单棵决策树的算法原理并不完全相同。在每个结点处,算法随机选择特征的一个子集,并对其中一个特征寻找最佳测试,而不是对每个结点都寻找最佳测试。选择的特征个数由max_features参数来控制。而且每个结点中特征子集的选择相互独立,这样树的每个结点可以使用特征的不同子集来做出决策。由于使用了自助采样,随机森林中构造每棵决策树的数据集都是略有不同的。由于每个结点的特征选择,每棵树中的每次划分都是基于特征的不同子集。这两种方法共同保证随机森林中所有树都不相同。试想一下,如果我们将max_features参数值调整的较大,这意味着我们的每个树将会非常类似,容易造成过拟合。但是max_features参数值如果过小,那么随机森林中的树将会差异很大,为了很好地拟合数据,每棵树的深度就要很大。

干货:将由10棵树组成的随机森林应用到make_moons数据集上

fromsklearn.datasetsimportmake_moons

fromsklearn.ensembleimportRandomForestClassifier

fromsklearn.model_selectionimporttrain_test_split

importmatplotlib.pyplotasplt

importmglearn

x,y = make_moons(n_samples=100,noise=0.2,random_state=10)

x_train,x_test,y_train,y_test = train_test_split(x,y,test_size=0.2,random_state=10)

clf = RandomForestClassifier(n_estimators=10,criterion='gini',max_features='auto',max_depth=5,oob_score=True,n_jobs=-1,random_state=10)

clf.fit(x_train,y_train)

fig,axes = plt.subplots(2,3,figsize=(10,8))

fori,(ax,tree)inenumerate(zip(axes.ravel(),clf.estimators_)):

    ax.set_title("Tree {}".format(i))

    mglearn.plots.plot_tree_partition(x_train,y_train,tree,ax=ax)

mglearn.plots.plot_2d_separator(clf,x_train,fill=True,ax=axes[-1,-1],alpha=.4)

axes[-1,-1].set_title("Random Forest")

mglearn.discrete_scatter(x_train[:,0],x_train[:,1],y_train)

plt.show()

作为随机森林的一部分,决策树们都被保存在estimator_属性中。我们将每棵树学到的决策边界可视化,也将它们的总预测(即整个森林做出的预测)可视化:


通过观察前9长图片我们可以发现每颗树的学习到的决策边界差距很大,这是因为每棵树在训练时所使用的数据集与特征子集均不相同。随机森林比单独每一棵树的过拟合都要小,准确率较高,给出的决策边界也更符合直觉。在任何实际应用中,我们会用到更多棵树,从而得到更平滑的边界。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,529评论 5 475
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,015评论 2 379
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,409评论 0 335
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,385评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,387评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,466评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,880评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,528评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,727评论 1 295
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,528评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,602评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,302评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,873评论 3 306
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,890评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,132评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,777评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,310评论 2 342