- 1、本文档共5页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
天将降大任于斯人也,必先苦其心志,劳其筋骨,饿其体肤,空乏其身,行拂乱其所为。——《孟子》
Lenet是一种经典的卷积神经网络模型,由YannLeCun等人于1998
年提出,是用于手写数字识别的深度学习模型。本文将详细介绍
Lenet各层的参数计算方式。
一、卷积层(ConvolutionalLayer)
1.卷积核数量(NumberofFilters):卷积层的参数由卷积核数量决
定,每个卷积核对应一个输出特征图。卷积核数量的计算方式为:卷
积核数量=输出特征图深度。
2.卷积核大小(FilterSize):卷积核大小决定了卷积操作的感受野大
小,一般由用户指定。
3.卷积层参数数量(NumberofParameters):卷积核数量乘以卷
积核大小即为卷积层的参数数量。
二、池化层(PoolingLayer)
1.池化核大小(PoolSize):池化层的参数由池化核大小决定,一般
由用户指定。
2.池化层参数数量(NumberofParameters):池化层没有需要训
练的参数,因此参数数量为0。
天将降大任于斯人也,必先苦其心志,劳其筋骨,饿其体肤,空乏其身,行拂乱其所为。——《孟子》
三、全连接层(FullyConnectedLayer)
1.神经元数量(NumberofNeurons):全连接层的参数由神经元数
量决定,每个神经元与上一层所有神经元相连。全连接层神经元数量
的计算方式为:神经元数量=输出的特征图的大小。
2.全连接层参数数量(NumberofParameters):全连接层权重参
数数量为输入神经元数量乘以输出神经元数量,加上输出神经元数量
的偏置参数数量。
Lenet各层的参数计算方式包括卷积层和全连接层的参数数量计算,
以及池化层无需计算参数数量。在实际应用中,以上参数计算方式为
设计和调整Lenet模型提供了重要参考。四、示例
为了更好地理解Lenet各层的参数计算方式,我们可以通过一个简单
的示例来加深理解。
假设我们有一个输入图像大小为28x28的灰度图像,即输入特征图的
大小为28x28x1。我们设计一个Lenet模型,包括一个卷积层、一个
池化层和一个全连接层。现在我们来计算每一层的参数数量。
1.卷积层(ConvolutionalLayer):
天将降大任于斯人也,必先苦其心志,劳其筋骨,饿其体肤,空乏其身,行拂乱其所为。——《孟子》
假设我们设定卷积核数量为6,卷积核大小为5x5。那么根据前面的参
数计算方式,我们可以得到:
卷积核数量=输出特征图深度=6
卷积核大小=5x5
卷积层参数数量=卷积核数量*卷积核大小=6*5*5=150
卷积层的参数数量为150。
2.池化层(PoolingLayer):
假设我们设定池化核大小为2x2。根据前面的参数计算方式,我们可
以得到:
池化层参数数量=0
因为池化层没有需要训练的参数,所以参数数量为0。
3.全连接层(FullyConnectedLayer):
假设卷积层输出的特征图大小为4x4x6
文档评论(0)