当前位置: 首页 > news >正文

深度学习经典模型之LeNet-5

1 LeNet-5

1.1 模型介绍

​ LeNet-5是由 L e C u n LeCun LeCun 提出的一种用于识别手写数字和机器印刷字符的卷积神经网络(Convolutional Neural Network,CNN) [ 1 ] ^{[1]} [1],其命名来源于作者 L e C u n LeCun LeCun的名字,5则是其研究成果的代号,在LeNet-5之前还有LeNet-4和LeNet-1鲜为人知。LeNet-5阐述了图像中像素特征之间的相关性能够由参数共享的卷积操作所提取,同时使用卷积、下采样(池化)和非线性映射这样的组合结构,是当前流行的大多数深度图像识别网络的基础。

1.2 模型结构

在这里插入图片描述

​ 图4.1 LeNet-5网络结构图

​ 如图4.1所示,LeNet-5一共包含7层(输入层不作为网络结构),分别由2个卷积层、2个下采样层和3个连接层组成,网络的参数配置如表4.1所示,其中下采样层和全连接层的核尺寸分别代表采样范围和连接矩阵的尺寸(如卷积核尺寸中的 “ 5 × 5 × 1 / 1 , 6 ” “5\times5\times1/1,6” “5×5×1/1,6”表示核大小为 5 × 5 × 1 5\times5\times1 5×5×1、步长为 1 ​ 1​ 1​且核个数为6的卷积核)。

​ 表4.1 LeNet-5网络参数配置

网络层输入尺寸核尺寸输出尺寸可训练参数量
卷积层 C 1 C_1 C1 32 × 32 × 1 32\times32\times1 32×32×1 5 × 5 × 1 / 1 , 6 5\times5\times1/1,6 5×5×1/1,6 28 × 28 × 6 28\times28\times6 28×28×6 ( 5 × 5 × 1 + 1 ) × 6 (5\times5\times1+1)\times6 (5×5×1+1)×6
下采样层 S 2 S_2 S2 28 × 28 × 6 28\times28\times6 28×28×6 2 × 2 / 2 2\times2/2 2×2/2 14 × 14 × 6 14\times14\times6 14×14×6 ( 1 + 1 ) × 6 (1+1)\times6 (1+1)×6 ∗ ^*
卷积层 C 3 C_3 C3 14 × 14 × 6 14\times14\times6 14×14×6 5 × 5 × 6 / 1 , 16 5\times5\times6/1,16 5×5×6/1,16 10 × 10 × 16 10\times10\times16 10×10×16 151 6 ∗ 1516^* 1516
下采样层 S 4 S_4 S4 10 × 10 × 16 10\times10\times16 10×10×16 2 × 2 / 2 2\times2/2 2×2/2 5 × 5 × 16 5\times5\times16 5×5×16 ( 1 + 1 ) × 16 (1+1)\times16 (1+1)×16
卷积层 C 5 C_5 C5 ∗ ^* 5 × 5 × 16 5\times5\times16 5×5×16 5 × 5 × 16 / 1 , 120 5\times5\times16/1,120 5×5×16/1,120 1 × 1 × 120 1\times1\times120 1×1×120 ( 5 × 5 × 16 + 1 ) × 120 (5\times5\times16+1)\times120 (5×5×16+1)×120
全连接层 F 6 F_6 F6 1 × 1 × 120 1\times1\times120 1×1×120 120 × 84 120\times84 120×84 1 × 1 × 84 1\times1\times84 1×1×84 ( 120 + 1 ) × 84 (120+1)\times84 (120+1)×84
输出层 1 × 1 × 84 1\times1\times84 1×1×84 84 × 10 84\times10 84×10 1 × 1 × 10 1\times1\times10 1×1×10 ( 84 + 1 ) × 10 (84+1)\times10 (84+1)×10

∗ ^* 在LeNet中,下采样操作和池化操作类似,但是在得到采样结果后会乘以一个系数和加上一个偏置项,所以下采样的参数个数是 ( 1 + 1 ) × 6 ​ (1+1)\times6​ (1+1)×6​而不是零。

∗ ^* C 3 C_3 C3卷积层可训练参数并未直接连接 S 2 S_2 S2中所有的特征图(Feature Map),而是采用如图4.2所示的采样特征方式进行连接(稀疏连接),生成的16个通道特征图中分别按照相邻3个特征图、相邻4个特征图、非相邻4个特征图和全部6个特征图进行映射,得到的参数个数计算公式为 6 × ( 25 × 3 + 1 ) + 6 × ( 25 × 4 + 1 ) + 3 × ( 25 × 4 + 1 ) + 1 × ( 25 × 6 + 1 ) = 1516 6\times(25\times3+1)+6\times(25\times4+1)+3\times(25\times4+1)+1\times(25\times6+1)=1516 6×(25×3+1)+6×(25×4+1)+3×(25×4+1)+1×(25×6+1)=1516,在原论文中解释了使用这种采样方式原因包含两点:限制了连接数不至于过大(当年的计算能力比较弱);强制限定不同特征图的组合可以使映射得到的特征图学习到不同的特征模式。

在这里插入图片描述

​ 图4.2 S 2 S_2 S2 C 3 C_3 C3之间的特征图稀疏连接

∗ ^* C 5 C_5 C5卷积层在图4.1中显示为全连接层,原论文中解释这里实际采用的是卷积操作,只是刚好在 5 × 5 5\times5 5×5卷积后尺寸被压缩为 1 × 1 ​ 1\times1​ 1×1​,输出结果看起来和全连接很相似。

1.3 模型特性

  • 卷积网络使用一个3层的序列组合:卷积、下采样(池化)、非线性映射(LeNet-5最重要的特性,奠定了目前深层卷积网络的基础)
  • 使用卷积提取空间特征
  • 使用映射的空间均值进行下采样
  • 使用 t a n h tanh tanh s i g m o i d sigmoid sigmoid进行非线性映射
  • 多层神经网络(MLP)作为最终的分类器
  • 层间的稀疏连接矩阵以避免巨大的计算开销

http://www.mrgr.cn/news/66357.html

相关文章:

  • 滑动窗口【算法】
  • 【部署glm4】属性找不到、参数错误问题解决(思路:修改模型包版本)
  • 33.安卓逆向-壳-查壳
  • Android -- [SelfView] 自定义圆盘指针时钟
  • 用Python遍历输出烟感名称和状态
  • Nginx 做反向代理,一个服务优先被使用,当无法提供服务时才使用其他的备用服务
  • MATLAB实现人工免疫网络算法(Artificial Immune Network Algorithm, AINA)
  • stm32学习4
  • 聚合(Aggregate)
  • ADNI蛋白质数据集下载
  • 基于Python+Vue开发的口腔牙科预约管理系统
  • 十月末补充(?
  • 李沐Softmax回归从零开始实现代码中的关于y和y_hat
  • 牛客网剑指Offer-树篇-JZ36 二叉搜索树与双向链表
  • web——[ACTF2020 新生赛]Exec1——命令注入
  • Spring cloud
  • 探索Java与C++中的类成员访问修饰符:从默认设置到封装实践
  • K8S简单部署,以及UI界面配置
  • 2024年Q3企业邮箱安全性研究报告:钓鱼邮件攻击同比上涨102.3%
  • 揭秘rust中默认参数类型不为人知的秘密,你确定不来了解下吗?
  • 华为 HarmonyOS NEXT 原生应用开发: 动画的基础使用(属性、显示、专场)动画
  • 从零开始的LeetCode刷题日记:746. 使用最小花费爬楼梯
  • 十月末
  • Nginx配置文件编写示例
  • Java中查找与排序算法探究
  • 阿里云服务器 篇十(加更):自动定时备份CSDN博客内容:优化内存和解决图片展示等问题