R实战 | Lasso回归模型建立及变量筛选

R实战 | Lasso回归模型建立及变量筛选

LASSO.jpg

Tibshirani(1996) 引入了 LASSO (Least Absolute Shrinkage and Selection Operator)模型,用于参数的选择和收缩。当我们分析大数据时,这个模型非常有用。在这篇文章中,我们学习如何使用R包glmnet 包建立LASSO 模型。

原文:https://mp.weixin.qq.com/s/Q-76vY6hr81Sh9Zs5KYcCg

这些回归模型被称为正则化或惩罚回归模型。Lasso可以用于变量数量较多的大数据集。传统的线性回归模型无法处理这类大数据。

虽然线性回归估计器 (linear regression estimator)在偏-方差权衡关系方面是无偏估计器,但正则化惩罚回归,如Lasso, Ridge承认一些减少方差的偏倚。这意味着后者的最小化问题有两个组成部分:均方误差(linear regression estimator)和惩罚参数()。LassoL1惩罚使变量选择收缩成为可能,而RidgeL2惩罚使变量收缩成为可能。

[图片上传失败...(image-af3b85-1651640667147)]

关于正则化详见:零基础"机器学习"自学笔记|Note8:正则化

X变量应该用均值零和单位方差进行标准化,因为变量的尺度差异往往会使惩罚分配不均。

由上式可知,第一部分是残差平方和(Residual Sum of Squares,RSS),第二部分是惩罚项。该罚项由超参数 λ 调整。超参数由用户通过人工搜索或交叉验证的方式外源性给出。

Lasso中包含了某些变量,但RSS值的降低很小,可以忽略不计时,收缩惩罚的影响就会增加。这意味着这个变量的系数是零(Lasso)或接近零(Ridge)。

本教程提供了一个循序渐进的例子,如何在R中执行套索回归。

[TOC]

22

LASSO

示例数据准备及预处理

# install.packages('glmnet')
library(glmnet)
graphics.off()  # clear all graphs
rm(list = ls()) 

# 示例数据准备
N = 500 # 观测数
p = 20  # 变量数

# X variable
X = matrix(rnorm(N*p), ncol=p)

# 计算标准化前的均值和标准差
colMeans(X)    # mean
apply(X,2,sd)  # standard deviation

# 标准化
X = scale(X,center = T,scale = T)

# 计算标准化后的均值和标准差
colMeans(X)    # mean
apply(X,2,sd)  # standard deviation

#——————————————-
# Y variable
#——————————————-
beta = c( 0.15, -0.33,  0.25, -0.25, 0.05,rep(0, p/2-5), 
          -0.25,  0.12, -0.125, rep(0, p/2-3))

# Y variable, standardized Y
y = X%*%beta + rnorm(N, sd=0.5)
y = scale(y)

注:对实际数据,只需分别对Xy进行标准化即可,即scale()。

LASSO 模型建立

# Model
# 当lambda = 0.01
lambda <- 0.01
# lasso
la.eq <- glmnet(X, y, lambda=lambda, 
                family='gaussian', 
                intercept = F, alpha=1) 
# 当alpha设置为0则为ridge回归,将alpha设置为0和1之间则为elastic net     
# 系数结果 (lambda=0.01)
la.eq$beta[,1]
# Lasso筛选变量动态过程图
la.eq <- glmnet(X, y, family="gaussian", 
                intercept = F, alpha=1) 
# plot
plot(la.eq,xvar = "lambda", label = F)
# 也可以用下面的方法绘制
#matplot(log(la.eq$lambda), t(la.eq$beta),
#               type="l", main="Lasso", lwd=2)
Snipaste_2022-05-01_18-19-37.png

我们可以看到,当lambda越大,各估计参数相应的也被压缩得更小,而当lambda达到一定值以后,一部分不重要的变量将被压缩为0,代表该变量已被剔除出模型,图中从左至左右断下降的曲线如同被不断增大的lambda一步一步压缩,直到压缩为0。

变量筛选

模型已经跑出来了,如何筛选变量呢?我们还得确定lambda,也就是在上图中画一条垂直于横轴的直线,这样我们才能知道哪些变量被压缩为0,以及未被压缩为0的变量的系数的估计值究竟是多少。

那我们如何选择lambda呢?我们可以使用R的glmnet中另一个函数cv.glmnet。这个函数使用的是“交叉验证”挑选lambda

# Run cross-validation & select lambda
#————————————————
mod_cv <- cv.glmnet(x=X, y=y, family="gaussian", # 默认nfolds = 10
                    intercept = F, alpha=1)

plot(mod_cv) 
Snipaste_2022-05-01_21-18-09.png

通过交叉验证,我们可以选择平均误差最小的那个λ,即mod_cv$lambda.min也可以选择平均误差在一个标准差以内的最大的λ,即mod_cv$lambda.1se

# lambda.min : the λ at which the minimal MSE is achieved.

# lambda.1se : the largest λ at which the MSE is within one standard error of the minimal MSE.
print(paste(mod_cv$lambda.min,
            log(mod_cv$lambda.min)))
print(paste(mod_cv$lambda.1se,
            log(mod_cv$lambda.1se)))

# 这里我们以lambda.min为最优 λ
best_lambda <- mod_cv$lambda.min
best_lambda

最后,我们可以分析由最优lambda值产生的最终模型。

# 最终模型的系数估计
#find coefficients of best model
best_model <- glmnet(X, y, alpha = 1, lambda = best_lambda)
coef(best_model)
> coef(best_model)
21 x 1 sparse Matrix of class "dgCMatrix"
                       s0
(Intercept) -9.499626e-18
V1           2.156750e-01
V2          -3.636329e-01
V3           3.247269e-01
V4          -2.554500e-01
V5           3.571598e-02
V6          -7.033558e-03
V7           .           
V8           1.405279e-04
V9           .           
V10         -1.285986e-03
V11         -3.187390e-01
V12          9.353756e-02
V13         -1.360398e-01
V14          .           
V15          7.314506e-02
V16          .           
V17          2.767650e-02
V18          3.150004e-03
V19          .           
V20         -3.646384e-03

如变量没有显示系数,即lasso回归收缩系数为零。这意味着它完全被排除在模型之外,因为它的影响力不够。系数非0的变量即为我们筛选的重要特征

使用最终模型进行预测

我们还可以使用最终的lasso回归模型对新的观测进行预测。

# 新观测
new = matrix(rnorm(20), nrow=1, ncol=20) 
#使用 lasso 回归模型预测
predict(best_model, s = best_lambda, newx = new)
            s1
[1,] 0.7519802

最后,我们可以在训练数据上计算模型的R-squared:

y_predicted <- predict(best_model, s = best_lambda, newx = X)
#find SST and SSE
sst <- sum((y - mean(y))^2)
sse <- sum((y_predicted - y)^2)

#find R-Squared
rsq <- 1 - sse/sst
rsq
> rsq
[1] 0.5444342

等于0.8047064。也就是说,最佳模型能够解释训练数据响应值变化的80.47%。

示例数据和代码领取

详见:https://mp.weixin.qq.com/s/Q-76vY6hr81Sh9Zs5KYcCg

参考

  1. Lasso Regression in R (Step-by-Step) (statology.org)(https://www.statology.org/lasso-regression-in-r/)
  2. Lasso Regression Model with R code | R-bloggers(https://www.r-bloggers.com/2021/05/lasso-regression-model-with-r-code/)

往期内容

  1. (免费教程+代码领取)|跟着Cell学作图系列合集
  2. Q&A | 如何在论文中画出漂亮的插图?
  3. Front Immunol 复现 | 1. GEO数据下载及sva批次校正(PCA可视化)
  4. R绘图 | 气泡散点图+拟合曲线

[图片上传失败...(image-e5ad83-1651640667147)]

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,980评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,178评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,868评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,498评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,492评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,521评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,910评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,569评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,793评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,559评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,639评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,342评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,931评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,904评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,144评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,833评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,350评论 2 342

推荐阅读更多精彩内容