1. 梯度下降
a) 本质就是函数和方程的求导,求微分
b) 误差方程
c) 找到梯度躺平的点,即梯度最低点。当在曲线为二次时,只有唯一的最地点。
d) 局部最优,全局最优。全局最优就是整个函数的最低点,当函数有多个 最低点是
e) 下面是函数的示意图
2. CNN
a) 在图片和语言领域应用
b) 卷积神经网络有一个批量过滤器,把收集起来的信息,这个信息是用压缩的信息去表示没被压缩的信息
c)
d) 图片压缩时有长宽高,代表红绿蓝三种信息,通过收集信息,即图片从大块变成小块压缩状态的过程。通过压缩图片,卷起一层,循环不断卷积
e)
3. 循环神经网络RNN
a) 记住之前发生的事情
b) 分析语音和图片的神经网络
c) 在语言翻译,描述照片,作曲,写论文
d) 把data0存入data1,同一data1存入data2,用后面的信息记住前面的信息,形成循环下去,就像人的记忆一样,通过前一件事联想后一件事,把事情穿成线索
e)
f) LSTM:反向传播误差,梯度消失,梯度爆炸。
g) LSTM主要是增加了三个控制器,输入,输出和忘记
4. 自编码
a) 接受图片,打码,然后再恢复图片
b) 自编码是为了压缩信息量
c) 为了减少信息的储存
5. 生成多抗网络GAN
a) 没有意义的随机数生产作品
b) 一边学习一边判断,判断哪些事真实数据,让机器来学习
6. 强化学习
a) 阿法狗的原理
b) 给机器的行为打分,通过高低分来区别,下次避免低分行为
c) Q learning
7. 强化学习
a) 不理解环境
b) 理解环境
c) 基于概率,基于价值。
d) 回合更新,单步更新
e) 在线学习,离线学习
8. DDPG
a) Pg端:动作估计网络,动作现实网络
b) 状态估计网路,状态现实网络,
c) 状态现实网路会拿动作现实网络作为输入端
d)
9. 强化学习
a) 蒙特卡洛搜索
10. 遗传算法
a) 010010001直接改变0变成1的信息就变了,类似基因突变的机制,通过算法改变,让机器自动生成下一代,通过不断的去除不要的和留下需要的,就可以筛选出想过要的子代。
b)
11. 激励函数
a) 不能用线性方程解决的问题
b) 激励函数Y=AF(WX),AF被称为掰弯函数