吴恩达机器学习-logistic回归

logistic回归—离散变量的分类问题

(0,1)分类,通常0表示“没有某样东西”,1表示“有某样东西”如有癌症,是垃圾软件等

上图所示是一个(0,1)分类问题,当y的取值为{0,1,2,3}时,就变成一个多分类问题


线性回归拟合而分类问题

上述问题是一个肿瘤预测问题,根据肿瘤的大小判断肿瘤是良性还是恶性的,当数据显示如图时,使用线性回归似乎是合理的肿瘤大小小于0.5对应的那个值时肿瘤为良性,大于时为恶性,但是,当多了一个数据点,如下图所示时,回归线可能会发生变化。

线性回归进行二分类问题预测

在这种情况下,阈值变成了蓝色圆点,此时蓝点左边的数据会被判断为良性,右边被判断为恶性。分类效果差。线性回归问题不适合于分类问题。分类问题的结果通常是0或1,但是根据线性回归问题求出的结果通常会大于一或小于零。而logistic回归得到的结果或分类会在(0,1)之间。logistic是一个用于输出为离散值0或1的分类问题,尽管他的名字是回归,但实际是用于分类。

logistic function

在进行分类问题的时候,我们希望标签范围在0~1的范围内,此时,我们就可以用到sigmoid function 即logistic function。我们原来的模型假设,形式为h_{\theta }(x) =\theta ^Tx ,此时我们将等式右边变换成g(\theta ^t x),g函数表示为一个sigmoid函数的形式,则原假设模型变为h_{\theta }(x)=\frac{1}{1+e^-\theta Tx  }  ,这样就保证输出值在(0,1)的范围内,要做的还是求解参数\theta

对于假说的输出结果的解释

输出结果表示,给定x的特征,则结果y=1的可能性有多大。如上例所示,0.7表示在x属于恶性肿瘤的可能性为70%数学表示为:h_{\theta }(x)=P(y|x;\theta )

决策边界

sigmoid function什么时候会将y预测为0,什么时候会预测为1。假设函数的形状是什么样。

假设函数与sigmoid function

我们已知h_{\theta } (x)表示y=I的概率,当概率大于等于0.5时,我们将其分类为1,当小于0.5时,我们将其分类为0。由右边的sigmoid函数图象可知,当z=0时,g(z)=0.5,则当z>0g(z)>0.5,y分类为1,z<0g(z)<0.5,y分类为0。在假说模型中,z=\theta ^Tx。因此,对于假说模型h_{\theta }(x) =g(\theta ^Tx )来说,当\theta ^Tx>0时,y=1;当\theta ^Tx <0时,y=0。

线性决策边界

上图中x_{1}+x_{2}=3  的边界即为决策边界,在计算出参数\theta 的值以后,根据模型可以对模型进行分类,用于分类的平面即为决策边界,决策边界是假说模型的性质,与数据无关。

非线性决策边界

我们可以根据需要构造特征,在上例中,我们构造了两个二次特征,根据训练数据得到参数值\theta 以后,根据模型可以对数据进行分类,在上例中,我们得到一个非线性的决策边界,在外围y=1,在边界内y=0。当特征变量变得更多更复杂的时候,决策边界会变的更加复杂,形状也会更加不同。

logistic 回归中参数的拟合——优化模型,损失函数

参数求解问题中的变量
线性回归中的cost function

在logistics回归中沿用线性回归中的损失函数,会产生非凸函数,存在很多局部最优,无法求解全局最优,因而,在logistic回归中,我们使用如下损失函数。

logistic回归找中的cost function

上式将非凸优化问题转化为凸优化问题,坐标图表示在y=1的情况下,随着h_{\theta }( x)取值的不同,损失函数的变化。当y=1时,若h_{\theta } (x)=0,则损失函数趋向于无穷,其意义为,若病人确实患有恶性肿瘤,你的预测却是非恶性的,则惩罚是很大的,趋向于无穷。若h_{\theta } (x)=1,y=1,则损失函数值为0,如图所示。

当y=0时的损失函数图

当y=0时,损失函数如图,当h_{\theta }( x)=1时,损失函数趋向于无穷,表示,如果最后的结果表明y=0,但是我们却几乎非常肯定的预测其为1,则带来的损失值是很大的。

为了方便的根据损失函数利用梯度下降法求解参数值,我们要将上述logistic回归的损失函数简化。简化结果如下图所示。

简化的logistic回归损失函数

由于y的取值只有0或1,当分别取0或1时,上述简化的损失函数与原损失函数相同。

简化后的损失函数
参数求解

在简化损失函数之后,我们要做的就是讲最小化损失函数,从而求出参数值。然后根据求出的参数值找到测试集中的数据的输出。注意,这里的输出值的意义都是概率。

梯度下降法用于logistic回归

logistic回归的高级优化

几种高级优化算法

在进行优化计算时,除了梯度下降法,还有很多高级优化算法,如上述三种,他们的优点是不需要手动设定学习率,他们有嵌入的内循环,自动选择不同的学习率,从而找到最优的学习率。共同的缺点就是更为复杂,在利用这些算法时吗,最好直接调用算法库。使用高级算法时,首先要给定损失函数和梯度。

logistic多元分类:一对多

多分类问题的引例

当分类输出不止一种结果时,就产生了多分类问题,如邮件的分类等。logistic分类也可以用于多分类问题,如下图所示:

logistic回归用于多分类问题

对于多分类问题,logistic回归相当于进行了多了二分类问题,如上图所示,区分三个类别,相当于进行了三次二分类问题,每次都把其中的一个类看成是正样例,其他所有类别看成是负样例。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 200,783评论 5 472
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 84,396评论 2 377
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 147,834评论 0 333
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,036评论 1 272
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,035评论 5 362
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,242评论 1 278
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,727评论 3 393
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,376评论 0 255
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,508评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,415评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,463评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,140评论 3 316
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,734评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,809评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,028评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,521评论 2 346
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,119评论 2 341

推荐阅读更多精彩内容