![Avatar notebook default](https://cdn2.jianshu.io/assets/default_avatar/avatar-notebook-default-640f7dde88592bdf6417d8ce1902636e.png)
7篇文章 · 4410字 · 2人关注
训练一个神经网络的目的是啥?不就是有朝一日让它有用武之地吗?可是,在别处使用训练好的网络,得先把网络的参数(就是那些variables)保存下来...
Dropout这个概念已经推出4年了,它的详细描述见论文。可是呢,它仿佛是个犹抱琵琶半遮面的美女,难以捉摸!!许多文献都对dropout有过描述...
LRN全称是local response normalization,局部响应归一化,想了解原理的点这个AlexNet。 看了Alex写的论文,...
tensorflow中关于BN(Batch Normalization)的函数主要有两个,分别是: tf.nn.moments tf.nn.ba...
第一次接触这个函数的时候,直接给整蒙了,好端端的softmax层不放在inference里,怎么给单独抽出来了?下面就根据tensorflow的...
之前一直对tensorflow的padding一知半解,直到查阅了tensorflow/core/kernels/ops_util.cc中的Ge...
文集作者