数字图像处理与深度学习技术应用 课件 第11、12章 基于深度学习CNN模型的汉字识别、基于深度学习CNN模型的语音识别.pptx

数字图像处理与深度学习技术应用 课件 第11、12章 基于深度学习CNN模型的汉字识别、基于深度学习CNN模型的语音识别.pptx

  1. 1、本文档共58页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

第11章基于深度学习CNN模型的汉字识别

目录11.1深度学习技术概述11.2卷积神经网络基本概念11.3汉字识别系统设计11.4汉字图像预处理11.5投影与分割11.6构建汉字识别模型11.6.1构建卷积神经网络模型11.6.2识别模型训练11.7汉字识别模型检验

11.1深度学习技术概述

深度学习思想是模拟人类神经系统的结构和功能来实现对数据的学习和识别。它是一种以人工神经网络为基础的机器学习方法,具有多层次的神经网络结构,被称为深度神经网络。主要特点:①多层次的神经网络结构;②自动特征学习;③端到端学习;④大规模数据和计算:。⑤广泛应用。

重要概念和组成部分:①神经网络(NeuralNetworks):包括输入层、隐藏层和输出层。②深度神经网络(DeepNeuralNetworks,DNN):包含多个隐藏层的神经网络。③卷积神经网络(ConvolutionalNeuralNetworks,CNN):捉图像中的局部特征,通过池化层减小特征图的尺寸,最后通过全连接层进行分类。④深度学习框架:TensorFlow、PyTorch、Keras等简化了深度学习模型的构建和训练流程。⑤前馈和反向传播(FeedforwardandBackpropagation):前馈从输入层经过网络传递到输出层的过程,反向传播是通过计算梯度来调整网络权重的过程。

11.2卷积神经网络基本概念

卷积神经网络(ConvolutionalNeuralNetwork,CNN)结构有:输入层、卷积层、池化层、输出层等,其他的还可以有全连接层,归一化层之类的层结构。基本概念(1)卷积层(ConvolutionalLayer)通过卷积操作对输入数据进行特征提取。通过共享权重的方式,减少需要训练的参数数量,从而提高模型的计算效率和泛化能力。其中,f是输入图像,g是卷积核,k是卷积核的大小。?

(2)滤波器(Filter)或卷积核(Kernel)用于在卷积操作中提取特征的小矩阵。它在卷积过程中通过滑动窗口在输入数据上移动,并与局部区域进行卷积操作。实际就是一个数值矩阵,常用的卷积核大小有1×1、3×3、5×5、7×7等。局部感受野和权值共享是卷积操作的两个鲜明特点。(3)步幅(Stride)步幅定义了滤波器在输入数据上滑动的步长。较大的步幅可以减小输出特征图的尺寸。(4)填充(Padding)在卷积操作中,填充是在输入数据的边缘周围添加额外的像素。填充可以用来保持输出特征图的尺寸,减小信息丢失。

(5)池化层(PoolingLayer)池化层用于减小特征图的空间尺寸,通过选择局部区域的最大值(最大池化)或平均值(平均池化)来实现。池化有助于减少计算量和提高模型的鲁棒性。(6)激活函数(ActivationFunction)作用是选择性地对神经元节点进行特征激活或抑制,能对有用的目标特征进行增强激活,对无用的背景特征进行抑制减弱。ReLU函数定义如下:ReLU(x)=max(0,x)特性:①非线性性。②缓解梯度消失问题。③稀疏激活性,提高模型的表达能力。④计算简单。

(7)权重共享(WeightSharing)卷积操作中每个卷积核的值是不变的,同一滤波器的权重被用于不同位置的输入数据,这种权重共享的机制减少了模型的参数数量。(8)损失函数卷积神经网络(CNN)通常用于图像分类、目标检测等任务。对于这些任务,常见的损失函数包括交叉熵损失和均方误差损失,具体的选择取决于任务的性质。①交叉熵损失(Cross-EntropyLoss)在输出层使用Softmax激活函数时。二分类交叉熵:

(9)Dropout随机地关闭一些神经元,用来防止过拟合的正则化技术。阻止它们参与前向传播和反向传播过程。多分类交叉熵:其中,M是判别的数量。是观测样本i属于c类的预测概率。②均方误差损失(MeanSquaredError,MSE):?

在每个训练迭代中,Dropout的过程如下:随机选择一部分神经元(隐藏层中的节点);将选择的神经元的输出置为零;执行前向传播和反向传播过程;更新权重时,只考虑那些没有被置为零的神经元。图11-1Dropout功能示意图(10)全连接层(FullyConnectedLayer)在卷积神经网络的末尾,通常

文档评论(0)

lai + 关注
实名认证
内容提供者

精品资料

版权声明书
用户编号:7040145050000060

1亿VIP精品文档

相关文档