Deep Learning Note
特征可视化
- 反卷积,导向反向传播和反向传播
- 这些方法同时把所有能提取的特征都展示出来了,而对类别并不敏感,不能解释CNN分类的结果.
- 用优化方法形成可视化
- 可视化参考链接
Attention 注意力机制
注意力机制的基本思想就是让模型能够忽略无关信息而更多的关注我们希望它关注的重点信息
- Seq2Seq结构
seq2seq属于Encoder-Decoder结构的一种
Seq2Seq 模型使用时可以利用 Teacher Forceing,Attention,beam search 等方法优化