Logistic回归分析时几个需要注意的问题

1、关于样本含量的问题

logistic回归分析中,到底样本量多大才算够,这一直是个令许多人困惑的问题。尽管有的人从理论角度提出了logistic回归分析中的样本含量估计,但从使用角度来看多数并不现实。直到现在,这一问题尚无广为接受的答案。根据国外一些大牛的看法,如果样本量小于100,logistic回归的最大似然估计可能有一定的风险,如果大于500则显得比较充足。当然,样本大小还依赖于变量个数、数据结构等条件。

一般认为,每一个自变量至少要10例结局保证估计的可靠性。注意:这里是结局例数,而不是整个样本例数。(如果你有7个自变量,那至少需要70例研究结局,否则哪怕你有1000例,而结局的例数只有10例,依然显得不足。)

2、关于混杂因素的理解

混杂因素一般可以通过三个方面确定:一是该因素(吸烟)对结局(心绞痛)有影响;二是该因素(吸烟)在分析因素(基因)中的分布不均衡;三是从专业角度来判断,即该因素不能是分析因素与结局中间的一个环节。也就是说,不能是分析因素引起该因素,通过该因素再引起结局。

3、关于交互作用的理解

交互作用有的书中也叫效应修饰,是指在该因素的不同水平(不同取值),分析因素与结局的的关联大小有所不同。在某一水平上(如取值为0)可能分析因素对结局的效应大,而在另一个水平上(如取值为1)可能效应小。

4、关于自变量的形式

理论上,Logistic回归中的自变量可以是任何形式,定量资料和定性资料均可。但我觉得在数据分析时更倾向于自变量以分类的形式进入模型,因为这样更方便解释。

例如体重,如果直接进行分析,结果提示的是每增加1Kg发生某病的危险。而现实中多数疾病可能对体重增加1Kg不敏感,或者我们医务人员不关心增加1Kg所发生的变化,而关注的是胖子是不是比瘦子有更高的发病风险。So,很多情况下将连续自变量转化为分类变量可能会有更合理的结果解释。

5、关于标准误过大的问题

我有过这样的经历,logistic回归分析结果中某个自变量的OR值特别大(如>999.999)或特别小(<0.001),可信区间也特别宽(如<0.001~>999.999)。明显觉得有问题,但始终摸不着头脑,后来,发现可能是数据出了问题。

对于此类问题,可能有以下原因:

  • 该变量某一类的例数特别少,如性别,男性有100人,女性有2人,可能会出现这种情形。
  • 空单元格(zero cell count),如性别与疾病的关系,所有男性都发生了疾病或都没有发生疾病,这时候可能会出现OR值无穷大或为0的情形。
  • 完全分离(complete separation),对于某自变量,如果该自变量取值大于某一值时结局发生,当小于该值时结局都不发生,就会出现完全分离现象。如年龄20、30、40、50四个年龄段,如果40岁以上的人全部发生疾病,40岁以下的人全部不发病,就就产生了完全分离现象,也会出现一个大得不可理喻的标准误。
  • 多重共线性问题,多重共线性会产生大的标准误。

6、几个错误的做法

关于logistic回归分析,某些“大牛”如是说:“把因变量和自变量往软件里一放,一运行就出来结果了”,那么简单,我只能呵呵了!

(1)多分类变量不看其与logitP的关系直接进入模型

有时候你会发现某些多分类自变量应该有意义但怎么也得不到有统计学意义的结果,那你最好看一下这些自变量与logitP是神马关系,是直线关系吗?如果不是,请设置虚拟变量(SPSS叫做哑变量)后再进入模型。

(2)变量赋值相反

有时候,你会发现你的结果恰好与别人的相反。于是乎你不得不陷入深深的苦恼中,当揪头发、拍脑袋都无济于事是,看看是不是因变量赋值问题。如患病(赋值1)和不患病(赋值0)弄成了患病(赋值0)和不患病(赋值1)。

注意:SPSS拟合模型时默认取值水平高的为阳性结果,而SAS与其相反。

(3)参数估计无统计学意义

有时候会发现所有自变量参数估计均无统计学意义,是不是很让你沮丧?(不管你沮不沮丧,反正我都看在眼里)如果你认为从专业角度不大可能所有自变量都无统计学意义,那你可以看下是不是标准误太大导致的Wald卡方检验失效,如果是,不妨换用似然比检验重新分析。如果不是,那你默哀,如果你知道原因请告诉我!

(4)只看参数检验结果

看到参数结果就认为分析结束了,这就是典型的只管工作完成,不理会工作质量。很少有人喜欢看拟合优度的结果,尽管拟合优度确实有用,尤其是在模型比较时。拟合优度通俗来讲就是看你求得的模型与实际数据的符合程度。logistic回归中有很多指标可用于拟合优度的评价,如Pearson卡方、Deviance、AIC、似然比统计量等。只要你不是非得追究它们的来历,这些指标的用法还是比较简单的,通常用于模型的比较。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,324评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,303评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,192评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,555评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,569评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,566评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,927评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,583评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,827评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,590评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,669评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,365评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,941评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,928评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,159评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,880评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,399评论 2 342

推荐阅读更多精彩内容

  • 机器学习是做NLP和计算机视觉这类应用算法的基础,虽然现在深度学习模型大行其道,但是懂一些传统算法的原理和它们之间...
    在河之简阅读 20,471评论 4 65
  • 面试的是BAT某家机器学习岗 1.可以用于任务分配的算法 贪心,动态规划,分支限界法,拍卖算法以及一些人工智能算法...
    HeartGo阅读 3,221评论 7 34
  • 回归分析可以说是统计学中内容最丰富、应用最广泛的分支。这一点几乎不带夸张。包括最简单的 t 检验、方差分析也都可以...
    wyrover阅读 5,398评论 2 20
  • 注:题中所指的『机器学习』不包括『深度学习』。本篇文章以理论推导为主,不涉及代码实现。 前些日子定下了未来三年左右...
    我偏笑_NSNirvana阅读 39,898评论 12 145
  • 命中有时终须有,命中无时莫强求
    花花世界有你有我阅读 157评论 0 0