240 发简信
IP属地:上海
  • func目标函数句柄(对象),x0是初始值,options是参数,参数内容可以在这个函数里面的看到。

    无约束优化方法-直接方法(坐标轮换法)

    无约束最优化方法的一般步骤可以总结如下: 选择初始点,这一点越靠近局部极小点越好;已取得某设计点,选择一个设计方向,沿此方向搜索,函数值需是下降的,是下降方向;从出发,沿方向...

  • 120
    啥叫“不确定”

    原题:Uncertainty: a Tutorial (不确定性:一份教程)作者:Eric Jang译者:尹肖贻 “不确定”这个词儿,三脚猫专家到处滥用,在人工智能安全(AI...

  • 120
    “驯估学”(中)

    对似然函数感兴趣的读者,请参阅“驯估学”(上) 建模图像,分布若何? 很多方法可以参数化图像。例如,3D场景投影(渲染)为2D可以表示图像。或者,将图像参数化为向量化的草图(...

  • “驯估学”(上)

    原题:Tips for Training Likelihood Models(似然模型的训练建议)[https://blog.evjang.com/2019/07/likel...

  • 120
    变分贝叶斯初探

    原题:A Beginner's Guide to Variational Methods: Mean-Field Approximation给初学者的变分法指导:平均场近似[...

  • 120
    你如何分配每天的三个8小时?学做这个日程表,做时间的掌控者

    “没时间”似乎已经成为职场人的口头禅,读书学习没时间,陪伴家人没时间,锻炼身体更没时间。 “没时间”这回事其实不真的是时间的绝对贬值,而是我们自己的价值排列和选择问题。当你说...

  • 120
    Lecture 13 生成模型

    之前了解到的都是有监督学习(Supervised Learning):我们有数据x和标签y,目标是学习到一个函数可以将数据x映射到标签y,标签可以有很多形式。典型的有监督学习...

  • 120
    EM算法详解

    作为N大机器学习方法的一员,EM算法在各种书籍、博客、网上视频上被描述或者介绍,每次看完总感觉很多地方含糊不清,不能让一个初学者(有一定统计概率基础)接受。最近再B站上,看到...

  • 无约束优化方法-一阶导数(最速下降法)

    利用导数信息的方法皆为间接方法。在无约束优化法最开始介绍时,提到迭代形式的优化方法关键步骤是确定搜索方向和步长。间接方法更为关注搜索方向的确定,其原则使得并满足。换句话说,在...

  • 无约束优化方法-直接方法(Downhill Simplex)

    Downhill simplex 方法又称为Nelder-Mead算法、Amoeba方法,由Spendley、Hext和Himsworth于1962年提出;Nelder和Me...

  • 怎样(不)功利地生活

    不听劝,就赔钱? 我爸是个资深股民,技术却不敢恭维。虽然经历过几次好运气,股金一度翻倍,但终究架不住利令智昏,从失败走向失败。不过,十多年的炒股经,日常中的“评论员”;大道理...

  • 120
    无约束优化方法-直接方法(Powell与改进Powell)

    在坐标轮换法中,可知其收敛速度慢,且受到等值线的形状的影像。原因可归结为其搜索方向总是平行于坐标轴,不适应函数的变换情况。针对这样的问题,共轭方向可以较好解决。 那什么叫共轭...

  • 120
    无约束优化方法-直接方法(坐标轮换法)

    无约束最优化方法的一般步骤可以总结如下: 选择初始点,这一点越靠近局部极小点越好;已取得某设计点,选择一个设计方向,沿此方向搜索,函数值需是下降的,是下降方向;从出发,沿方向...

  • 120
    优化方法基础系列-非精确的一维搜索技术

    选择最优步长的精确搜索方法往往计算量大,特别是当迭代点远离最优解时,效率很低,而且很多最优化算法的收敛速度并不依赖于精确的一维搜索过程。这促使一些研究者放宽了一维搜索的精确要...

  • 优化方法基础系列-精确的一维搜索技术

    在学习各种优化方法之前,我们需要先从简单的一维优化问题开始,即只有单一变量的优化问题,解决这类问题的方法可称为一维搜索技术,亦可称为线性所搜(Line Search)。一维搜...

  • 120
    优化方法基础系列-优化问题分类

    最优化问题可以按照优化问题的状态来进行分类,可分了两类,即静态问题和动态问题。本优化方法系列主要从静脉问题方面进行记录,总结与概述。主要目的是便于以后查看和复习使用。 无约束...