Methods for NER 利用规则(比如正则) 投票模型 (Majority Voting) baseline 利用分类模型非时序模型 逻辑回归 SVM时序模型 :HM...
Methods for NER 利用规则(比如正则) 投票模型 (Majority Voting) baseline 利用分类模型非时序模型 逻辑回归 SVM时序模型 :HM...
上一篇文章讲到,如果数据是线性可分的,直接使用最大边距作为目标函数,但是如果数据是线性不可分的情况下,该目标函数是不可用的。那么如何处理线性不可分的情况呢?How to Cl...
回顾线性分类器 设D = {(x1,y1),(x2,y2),(x3,y3),......(xn,yn)},yi属于{-1,1},i = 1,2,3......m@ = {w,...
先来看看高中学的导数,就是一元函数的切线称为导数 偏导数是针对多元函数的,我们以两个自变量为例,z=f(x,y),从导数到偏导数,也就是从曲线来到了曲面,曲线上的一点,其切线...
流网络—最大流问题(Maximum-flow problem)image.png希望从0-7找到最大值,管道可以承载的最大值。 那么目标函数是objective:maximi...
时间这东西真的是过的好快啊,不知不觉又过去了半个月了,现在已经是五月中旬了。坚持是最好的证明。 那么我们回归,如何优化目标函数?其实AI问题有个等式,AI问题 = 模型+优化...
由之前的文章可知,目标函数为了防止过拟合或者限制参数,一般会加L1正则化和L2正则化,下面来介绍关于L1正则,Lasso正则,因为Lasso是可以进行特征选择降维的功能,L1...
如果一个数据集中有很多的特征,但是不是所有的特征都是对模型有作用,或者作用非常小时,我们就需要剔除,那么我们用上面技术去选择特征呢? 第一种,穷举法 把所有的特征组合都计算对...
为什么我们更喜欢Sparsity 如果维度太高,计算量也变得更高 在稀疏性的条件下,计算量只依赖非0项的个数 提高解释性
今天睡了一下懒觉,九点半才起床,昨天吃火锅热气,今天要吃清淡一点了。 使学过机器学习的人,对机器学习中的MLE(极大似然估计)、MAP(最大后验估计)以及贝叶斯估计(Baye...
在之前我们一直讨论的是一个超参数的情况,但是如果是有多个超参数如何计算是最优的超参数呢? 比如逻辑回归加了两个正则(L1+L2正则项),那如何去计算这两个正则的超参数呢?如果...
你闷声的日子,后面就是你爆发的日子。 前面讲过加入正则项的目标函数,那么如何求出超参数呢?如何选择合适的超参数呢? 一般是通过交叉验证cross validation(CV)...
今天好热啊,30多°,也不知道这是什么神仙天气哈哈哈 我们来看看什么叫模型的复杂度 由上面三个模型,你会选择哪个呢,我会选择第二个,为什么呢? 在训练的时候,虽然c模型效果最...
L1和l2正则化项,又叫惩罚项,是为了限制模型的参数,防止模型过拟合而加在损失函数后面的一项 在前面的逻辑回归的目标函数中也加了L2正则,就是为了防止参数太大,防止过拟合。 ...
根据上一篇文章可知,根据梯度下降法可以求出参数,但是求出的参数就是最好的模型呢?我也不知道,咱们下面看看一个问题 如果当给定的数据线性可分的时候,逻辑回归的参数会趋于无限大吗...
1、两个元素相除2、求和
坚持才是硬道理,剩下的交给时间 由上一篇文章得知,逻辑回归的目标函数已经确定,现在是如何求出W,B的参数值。就相当于构建了模型。回顾一下,逻辑函数的目标函数所以我们如果要求使...
前面两篇文章求出了函数和逻辑回归是线性回归,那模型还需要求出目标函数的参数,才可以供以后使用。也就是说,我们如何求出W和b的值呢? 求解W和b的过程其实也叫做《模型的实例化》...
后天就是五一了,时间过的真的好快啊。不知不觉一个月又过去,庆幸的是我今天我还在写着,记录着,重要的不是要多快,而是循序渐进的投入学习中。 根据上一篇讲关于逻辑回归,得知逻辑回...
在前面的垃圾邮件分类中,可知贝叶斯起到了很好的作用,但是其是离散型的,效果就很好,对于连续型的特征,贝叶斯可以用高斯贝叶斯去实现,就是数据特征服从正态分布。但是效果没有离散型...