线性二次型高斯(Linear Quadratic Gaussian (LQG)) 在现实世界中,我们通常不能获取到所有的状态st。比如一个自动驾驶汽车可以通过摄像头获取图像,...
线性二次型高斯(Linear Quadratic Gaussian (LQG)) 在现实世界中,我们通常不能获取到所有的状态st。比如一个自动驾驶汽车可以通过摄像头获取图像,...
上一节中我们介绍了一个特殊的MDP模型:线性二次型调节控制(LQR)。事实上很多问题都可以用LQR来解决,即使动态模型是非线性的。尽管LQR是一个非常漂亮的解决方案,但它还不...
有限边界的MDP 在前面两章关于强化学习的介绍中,我们定义了马尔可夫决策过程(MDP)以及价值迭代/策略迭代这两种用于求解MDP的算法。特别地,我们介绍了最优贝尔曼方程(op...
到目前为止,我们一直都在讨论有限状态下的MDP问题,现在我们来看下当状态数量是无限时如何求解MDP问题。 离散化 也许求解无限状态下的MDP问题最简单的方法就是先将无限状态离...
这一节开始我们介绍强化学习(reinforcement learning)。在监督学习中,对于一个给定的输入x,我们可以明确知道输出y。而在很多序列决策(sequential...
这一节的主题是独立成分分析(Independent Components Analysis, ICA)。和PCA的降维思路不同,ICA主要解决的是找到数据背后的“独立”成分。...
上一节我们介绍了因子分析,该模型通过一系列变换可以将高维数据用低维数据来表示。因子分析基于的是概率模型,并且需要用到EM算法进行参数估计。 这一节我们介绍主成分分析(Prin...
上一节我们介绍了用EM算法求解混合高斯模型,但这个算法通常是在样本数足够多的情况下才成立,即满足样本数m远远大于特征数n。 如果n >> m,那么在模型计算参数的时候会遇到一...
这一节开始我们讨论非监督学习(Unsupervised Learning)的算法。在监督学习算法中,训练数据既包含特征也包含标签,通常表示为{(x(1), y(1)), .....
这一节我们主要讨论机器学习具体应用中的一些建议,大部分内容都不会涉及到数学,但却可能是最难理解的一部分。另外本文的部分内容可能有一些争议,部分内容也不适用于学术研究。 机器学...
假设我们为了某个学习问题需要从若干模型中选出最优模型,比如在多项式回归模型hθ(x) = g(θ0+θ1x+...+θkxk)中,我们应该如何选择合适的k值使得模型的偏差方差...
偏差与方差 当讨论线性回归时,我们提到过欠拟合和过拟合的问题。如下图所示,左图用的是y=θ0+θ1x的线性模型进行拟合,而右图用了更为复杂的多项式模型y=θ0+θ1x+......
HTTP发展简史 HTTP/0.9 1991年发布 只支持GET命令 请求及返回值都是ASCII码 请求以换行符(CRLF)结束 返回值只支持HTML格式 服务器返回值之后立...
上一篇文章中我们已经根据拉格朗日对偶性推导出了SVM最优化公式。而在这一篇文章中,我们将会从SVM最优化公式中引出核函数(kernels)的概念,由此给出在高维空间下更高效应...
在接下来的两篇文章里,我们会着重介绍支持向量机(Support Vector Machine)算法,以下简称为SVM。SVM可以称得上是监督学习里最优秀的算法了,在诸如文本分...
朴素贝叶斯模型 在上节介绍的GDA方法中,输入特征x是连续型随机变量。现在我们介绍一个算法用于处理x是离散值的情况。 我们以邮件分类为例来介绍这个算法,邮件分类问题是文本分类...
生成学习算法 目前为止,我们主要讨论的学习算法基于p(y|x;θ)进行建模,即给定x的情况下y的条件分布。比如在逻辑回归里我们基于p(y|x;θ)推导出hθ(x)=g(θTx...
牛顿方法 之前我们在最大化对数似然函数l(θ)时用到了梯度上升法,现在我们介绍另一种方法。 我们先来看下如何用牛顿方法(Newton's Method)求解θ使得f(θ)=0...
线性回归的概率解释 在解决线性回归问题时,我们为什么要使用最小二乘法作为代价函数?这个问题我们会通过概率统计来进行解释。 假设对每个样本数据,输出值与预测值存在一定的误差ε(...
监督学习与非监督学习 机器学习是指给定一些训练数据,使机器能够利用它们分析未知数据。任何机器学习问题都可以分为两类:监督学习(Supervised Learning)和非监督...