240 发简信
IP属地:安徽
  • 老哥,关键的地方还是没讲透呀:为什么有些是0,有些要放缩1/keep_prob倍。把神经元dropout掉就是指把神经元输出强行设置为0,但是为了保证期望值不变,所以取原值的时候要乘以1/keep_prob,这样训练的时候神经元输出的期望值就是原值了。

    谈谈Tensorflow的dropout

    Dropout这个概念已经推出4年了,它的详细描述见论文。可是呢,它仿佛是个犹抱琵琶半遮面的美女,难以捉摸!!许多文献都对dropout有过描述,但解释的含糊不清,这里呢,我...