在《常用损失函数》那一节我们已经给出了深度学习的整体模型,即
先假设模型,然后通过训练得到模型的参数,整个深度学习的过程就完成了。
参数一般都是给一个初值,然后通过训练优化参数。有过一定数学建模经验的同学可能会联想到现代优化方法,神经网络参数优化也有一套优化理论。
常见的有:
# 梯度下降算法
tf.train.GradientDescentOptimizer()
# RMSProp 自适应学习率的优化算法
tf.train.RMSPropOptimizer()
# Momentum 算法
tf.train.MomentumOptimizer()
# Adagrad 对不同参数选取不同的学习率
tf.train.AdagradOptimizer()
# Adam 自适应矩估计 该算法得到的参数值较为稳定
tf.train.AdamOptimizer()