针对想要入手深度学习的工程师,深入理解卷积神经网络中的结构。
[TOC]
# 一. 全连接
# 二. 卷积
# 三. Pooling
[^1]:杨云,杜飞.深度学习实战[M].北京:清华大学出版社, 2017
[^2]:lan Goodfellow.深度学习[M].北京:人民邮电出版社, 2017
用于去掉特征中的次要部分,减少参数;本质上是对局部特征的抽象表达;<img src=images/Q1.jpg width=20 height=20> 卷积层在抽象,你也抽象
>定义
某一位置的输出,用该位置相邻位置的总体统计特征来代替;[^2]
>分类
- Max Pooling
- Average Pooling
- `$ L^2 $` 范数 Pooling
- 加权平均 Pooling(距离中心像素的距离)
> 作用 [^1]
1. **提升网络性能**
提高抗噪能力和泛化能力;
- **平移不变性**<img src=images/Q1.jpg width=20 height=20>
即对位置不敏感;当输入做出「少量」平移,经过 Pooling 后的「大多数」输出并不会发生改变;
严格意义上来说是「局部」「近似」平移不变性;
局部平移不变性很重要,尤其是当我们关心特征是否出现,而不关心他出现的具体位置时。
- **旋转不变性**<img src=images/Q1.jpg width=20 height=20>
卷积层提取到多个角度的特征图,Pooling 层进行归一化/汇总;
1. **下采样**
也叫「降维」——缩小特征图规模(大小),神经网络版 resize;
1. **处理变长输入**
具体操作<img src=images/Q1.jpg width=20 height=20>
- 注意:[^1]
- 感受野很少超过3;
步长太大,采样太剧烈,效果不好
# 四. 激活函数
