240 发简信
IP属地:浙江
  • 120
    论文共读笔记(2)理解Transformer的三层境界--Attention is all you need

    [TOC]@author by xubing 0x00、先导知识 0.1 Seq2Seq 0.2 Attention 0x01.第一层境界 高屋建瓴,会当凌绝顶 文章题目:《...

  • 关于方差、均值、标准差

    参考文献: [关于标准差、贝塞尔修正](关于标准差、贝塞尔修正) [标准差的分母为什么为(N-1)](https://www.zhihu.com/question/20099...