机器学习常记必备

1.需要记住的符号表示

m --- 训练集的大小(训练样本的数量)
x --- 特征
y --- 输出
n --- 特征数目

第 i 个训练样本的所有特征 Xi
第 j 个特征     Xj
所以第 i 个样本的 第 j 个特征为 Xji

通常情况下, 特征 X 是一个矩阵(m X n),如下图所示:


图片.png

而Y则通常为一个列向量 n X 1

注意一行为一个样本;一列为一个特征

而(X(i),Y(i)) 表示第 i 个训练样本

通常情况下给定的训练数据是这样的
34.62365962451697,78.0246928153624,0
30.28671076822607,43.89499752400101,0
35.84740876993872,72.90219802708364,0
60.18259938620976,86.30855209546826,1
79.0327360507101,75.3443764369103,1
45.08327747668339,56.3163717815305,0

第一行为第一个训练样本,
第一列34.62365962451697为第一个特征,第二列78.0246928153624为第二个特征
第三列0为输出y
所以我们常常需要把它分割成: X 矩阵 + Y 向量


图片.png
图片.png

分割方法:
data = load('ex2data2.txt');
X = data(:, [1, 2]); y = data(:, 3); //X为data矩阵的所有行 的 第一和第二列 Y为data矩阵的所有行 的第三列

2.matlab中矩阵的加减乘除以及其他的方便运算

matlab中向量从1开始计数
matlab中 help 函数名 查看详情,如 help pinv
A 是一个矩阵


图片.png

得到A的size:[a b] = size(A) 则a = 5,b = 5
得到A的行数:a = size(A,1)
得到A的列数:b = size(A,2)
V为一个列向量,则 c = length(V) 得到V的行数

矩阵X矩阵 (列 = 行 、不可交换律)
[ m X n ] * [ n X p ] => [ mXp ]
在机器学习中常常是mXn   *   nX1
m X n为 X矩阵
n X 1 为 Y向量
得到的结果为mX1的一个向量,对应m个样本

pinv(A)得到矩阵A的逆矩阵
A‘得到A的转置矩阵AT
(转置矩阵 抽出第i行放到新矩阵的第i列)

C = ones(2, 3)
1 1 1
1 1 1
C = zeros(2, 3) 变成了0
C = rand(1, 3) 随机数填充
C = randn(1, 3)高斯填充
C = eye(5) 5阶单位矩阵

load('test.dat')导入数据
who 查看变量
whos详细查看变量
clear a 清除变量a
clear 清除所有变量

拼接矩阵
A = [A, [100; 101; 102]];

图片.png

图片.png

左右拼接
C = [A,B]
上下拼接
C = [A;B]
删除某些行
A(1, :) = [] 删除第一行

找到某些列
A([1 3], :) 第一行和第三行的所有列 第二个变量表示所有的

矩阵的 点乘 与 乘 ,点除......
点乘 C = A .* B
乘法 C = A * B
C =1 ./ A
C = A .^ 2
点的运算为每个元素,对应元素操作,而直接乘等为矩阵乘法
log(A)
exp(A)
abs(A)
-V
max(V)
sum(A,1) sum(A,2)

A < 3
A中小于3的元素变成1,大于等于3的变成0

A = magic(3)

find(a<3)
prod(A)
floor(A)
ceil(A)
flipud

3.常使用的公式

hθ(x)为设想函数,他的变量是x
hθ(x) = θθ + θ1x1 + θ2x2 + θ3x3 + …

Jθ(x)为损失函数,他的变量是θ
Jθ(x) = (1/m)∑Cost(hθ(x(i) - y(i)))
在lenear regression 中 Cost(hθ(x(i) - y(i))) = (1/2) * (x(i) - y(i))2 ;
在logistic regression 中 Cost(hθ(x(i) - y(i))) = -y(i)*loghθ(x(i)) - (1 - y)(i) *loghθ(1-(x(i)));

1.向量表示
hθ(x) = X * θ

线性回归中
1.Cost函数
J = 1/(2 * m) * sum((X * theta - y) .^2);

梯度
(1 / m) * X'* (X * theta - y);

更新公式
p = alpha * (1 / m) * X'* (X * theta - y);
theta = theta - p;

逻辑回归中

1.Cost函数


图片.png
图片.png

变成向量模式


图片.png

2.梯度下降


图片.png

图片.png

变成向量模式
图片.png

Normal equitation

图片.png

正则化之后的梯度下降和Normal

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 193,495评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,469评论 2 369
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 140,825评论 0 318
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 51,974评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 60,849评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 45,990评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,415评论 3 380
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,125评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,351评论 1 288
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,474评论 2 307
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,249评论 1 324
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,119评论 3 310
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,496评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,838评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,118评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,366评论 2 340
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,573评论 2 335

推荐阅读更多精彩内容