240 发简信
IP属地:湖北
  • 对交叉熵损失的一点感悟

    版权所有,违者必究 这个问题需要从熵谈起, 根据香浓理论,熵是描述信息量的一种度量,如果某一事件发生的概率越小,也就是不确定性越大,那么熵就越大,或者说是信息量越大。 比...