回归(三):Softmax回归

回归(三)

Softmax回归

二分类到多分类问题

在Logistic回归中,我们处理的是二分类的问题。我们假定事件y=1​的对数几率满足线性模型,得到y=1​的概率函数满足sigmoid函数的形式。在使用模型预测的时候,如果求出y=1​的概率大于0.5,就预测y=1​;否则就预测y=0​。即:

ln\ odds(y=1) = ln\frac{p}{1-p} = \theta^Tx \Rightarrow p = \frac{1}{1+e^{-\theta^Tx}}

y = \begin{cases}1\quad p>0.5\\ 0\quad otherwise \end{cases}

如果碰到多分类问题呢?先以三分类为例;假设有三个类别1, 2, 3,那么我们就可以做三次logistic回归,假定有n个特征值,我们可以定义:

z_1 = \theta_{11}x_1 + \theta_{12}x_2 + \theta_{12}x_3 + ...+\theta_{1n}x_n

z_2 = \theta_{21}x_1 + \theta_{22}x_2 + \theta_{22}x_3 + ...+\theta_{2n}x_n​

z_3 = \theta_{31}x_1 + \theta_{32}x_2 + \theta_{32}x_3 + ...+\theta_{3n}x_n

那么y = 1,2,3的概率分别为:

p(y = 1) = \frac{1}{1+e^{-z_1}}​

p(y = 2) = \frac{1}{1+e^{-z_2}}​

p(y = 3) = \frac{1}{1+e^{-z_3}}

这就做了三次logistic回归。然后比较三者的概率大小。那么是否能够直接使用某种方法,通过一次回归就得到属于每个类别的概率呢?

假设现在我们已经求出了y = 1,2,3的概率,分别为p_1, p_2, p_3。那么p_1, p_2, p_3一定满足:

  • (1)p_i的越大,则事件y=i的可能性越大
  • (2)\sum p_i = 1

显然,z_1, z_2, z_3是满足条件(1)的,要让概率和为零,只需要对z_1, z_2, z_3做一个归一化操作。最简单的就是p_i = \frac{z_i}{\sum z_i},但是这种处理虽然简单也易于理解,但是在之后的一些处理如求导的操作中比较麻烦。

使用softmax回归处理多分类问题

数学可以得到,ln(e^x+e^y)可以用来近似地表示max(x, y),通常这么做是因为ln(e^x + e^y)相对于max(x, y)更容易求偏导和微分。这里我们对上面的归一化做一些修改,不再是简单地除以所有z_i的和,我们对z_i重新赋予含义:

z_1 = \frac{exp(\theta^T_1x)}{\sum_{k=1}^3 exp(\theta_k^T x)}​

z_2 = \frac{exp(\theta^T_2x)}{\sum_{k=1}^3 exp(\theta_k^T x)}​

z_3 = \frac{exp(\theta^T_3x)}{\sum_{k=1}^3 exp(\theta_k^T x)}

拓展到K分类的问题,第k类的参数为\vec \theta_k,组成二维矩阵\theta_{k\times n}。那么:

p(c = k|x; \theta) = \frac{exp(\theta^T_k x)}{\sum_{l=1}^Kexp(\theta^T_lx)}, k = 1,2,3, ...,K

同样可以计算似然函数,对数似然和求随机梯度:

似然函数:L(\theta) = \prod_{i=1}^m \prod_{k=1}^Kp(c=k|x^{(i)};\theta)^{y_k^{(i)}} = \prod_{i=1}^m \prod_{k=1}^K\left( \frac{exp(\theta^T_kx^{(i)})}{\sum_{l=1}^K exp(\theta_l^T x^{(i)})} \right)^{y^{(i)}_k}​

对数似然:J_m(\theta) = ln L(\theta) = \sum_{i=1}^m\sum_{k=1}^K y^{(i)}_k\centerdot\left( \theta^T_kx^{(i)} - ln\sum^K_{l=1}exp(\theta^T_lx^{(i)}) \right)\\ J(\theta) = \sum_{k=1}^K y_k\centerdot\left( \theta^T_kx - ln\sum^K_{l=1}exp(\theta^T_lx) \right)

随机梯度:\frac{\partial J(\theta)}{\partial \theta_k} = (y_k - p(y_k|x;\theta))\centerdot x

公式中的y_k​采用one-hot编码,对于训练数据如果y = k​,则有:

y_i = \begin{cases} 1\quad i=k\\ 0 \quad otherwise \end{cases}

这样,使用模型预测时得到的K维列向量中,每一个维度的数值就可以表征属于对应类别的概率。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,607评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,047评论 2 379
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,496评论 0 335
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,405评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,400评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,479评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,883评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,535评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,743评论 1 295
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,544评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,612评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,309评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,881评论 3 306
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,891评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,136评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,783评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,316评论 2 342

推荐阅读更多精彩内容