240 发简信
IP属地:河南
  • 各种求minimize极值的优化方法

    包括牛顿法、梯度下降法... 这些其实并非是最优秀的, 今天听说一个L-BFGS-B ,未来可以尝试性能并应用。 https://www.cnb...

  • p-value与显著性优势

    https://blog.csdn.net/rongbaohan/article/details/53521147

  • 强化学习论文中应注意的事项

    https://zhuanlan.zhihu.com/p/52066264 非常棒!

  • Resize,w 360,h 240
    hadoop

    1. hadoop on Yarn 注意 application Master的角色 Resource Manager是针对cluster资...

  • Resize,w 360,h 240
    java

    1. 子类继承父类的时候,会先默认执行父类的 无参 构造函数(即便实例化的时候用的是传参的方式), 再执行子类的构造函数。 2. 继承 exte...

  • Resize,w 360,h 240
    PPO和DPPO

    PPO: A2C算法的改进版,主要是为了解决 ‘learning rate 不易设置的问题’, DPPO是 PPO的distributed版本...

  • policy-gradient和q-learning区别

    其中一个区别就是, q-learning总是用 Q现实 - Q估计 来获得loss,从而更新参数。 但基础版本的policy-gradient都...

  • Resize,w 360,h 240
    A3C

    中央大脑 Global_net 以及 4个(一般多少个CPU就多少个Worker)worker, 每个 worker都是独立做一个 AC算法, ...

  • Resize,w 360,h 240
    actor-critic

    1. actor是 policy-gradient, critic是 类似于q-learning的value-based 的另一个代表: sta...