240 发简信
IP属地:陕西
  • 你好,想问一下,根据你的理解,逐层预训练的时候,是每一层训练到位后(就是该层将训练集跑多遍)再训练下一层吗?还是前边一层训练一次(将训练集跑一遍),然后紧接着训练下一层(将训练集跑一遍)?

    栈式自编码器的无监督逐层贪婪预训练(greedy layer-wise pre training)

    对于深层模型的训练,通常采用BP算法来更新网络参数。但是需要对网络参数进行很小心的初始化,以免网络陷入局部最小点。当然,现在已经有了很多网络参数初始化的办法,或者其他的深度网...