企业🤖AI智能体构建引擎,智能编排和调试,一键部署,支持知识库和私有化部署方案 广告
针对想要入手深度学习的工程师,深入理解卷积神经网络中的结构。 [TOC] # 一. 全连接 # 二. 卷积 # 三. Pooling [^1]:杨云,杜飞.深度学习实战[M].北京:清华大学出版社, 2017 [^2]:lan Goodfellow.深度学习[M].北京:人民邮电出版社, 2017 用于去掉特征中的次要部分,减少参数;本质上是对局部特征的抽象表达;<img src=images/Q1.jpg width=20 height=20> 卷积层在抽象,你也抽象 >定义 某一位置的输出,用该位置相邻位置的总体统计特征来代替;[^2] >分类 - Max Pooling - Average Pooling - `$ L^2 $` 范数 Pooling - 加权平均 Pooling(距离中心像素的距离) > 作用 [^1] 1. **提升网络性能** 提高抗噪能力和泛化能力; - **平移不变性**<img src=images/Q1.jpg width=20 height=20> 即对位置不敏感;当输入做出「少量」平移,经过 Pooling 后的「大多数」输出并不会发生改变; 严格意义上来说是「局部」「近似」平移不变性; 局部平移不变性很重要,尤其是当我们关心特征是否出现,而不关心他出现的具体位置时。 - **旋转不变性**<img src=images/Q1.jpg width=20 height=20> 卷积层提取到多个角度的特征图,Pooling 层进行归一化/汇总; 1. **下采样** 也叫「降维」——缩小特征图规模(大小),神经网络版 resize; 1. **处理变长输入** 具体操作<img src=images/Q1.jpg width=20 height=20> - 注意:[^1] - 感受野很少超过3; 步长太大,采样太剧烈,效果不好 # 四. 激活函数