基于深度卷积神经网络的红细胞识别算法研究.docx

基于深度卷积神经网络的红细胞识别算法研究.docx

  1. 1、本文档共6页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

?

?

基于深度卷积神经网络的红细胞识别算法研究

?

?

钟彩彭春富杜微杨兴耀

摘??要:针对深度研究的项目特点,文章对卷积神经网络结构的研究现状进行分析,总结卷积神经网络结构及优化算法。旨在通过对这些内容的分析,针对红细胞图像提取特征,设计群优化算法的卷积神经网络结构,以提高图像检测的科学性、准确性,展现深度卷积神经网络的识别算法技术的使用价值。

关键词:卷积神经网络;识别算法;深度研究

在人工智能技术发展中,深度学习作为较为重要的内容,改变了传统识别技术的使用状况,通过大数据资源的利用,展现深度学习模型中神经网络识别的价值。在图像识别技术运用中,其作为一种不同模式下的目标、对象研究技术,主要是通过计算机对图像进行处理,提高数据分析的整体效果。在以往的特征提取技术运用中,存在着一些局限性的问题,通过与卷积神经网络(ConvolutionalNeuralNetworks,CNN)模型的融合,可以在梯度下降方法使用中进行各项数据参数的训练,并实现对图像以及参数的分析,展现深度分析的价值。因此,在当前人工智能技术中,运用卷积神经网络的识别算法,可以提高图像识别的整体效果。

1??卷积神经网络结构研究现状

卷积神经网络模型算法主要由多个卷积层、下采样层和全连接层组成,每一次的输出是对原始输入的一组特征表示。其中在卷积层,通过一个卷积核对来自上一层的特征图进行卷积,然后通过一个激活函数得到卷积层的输出特征图,激活函数使用sigmoid函数。下采样层将上一层的特征图进行下采样加权和偏置得到该层的输出特征图[1]。

卷积神经网络主要采用局部感知区域、共享权值以及空间域上的降采样,对位移、缩放等状态进行研究,该种分析方法具有稳定不变的特点,研究中,针对细胞图像特征值提取的项目特点,对卷积神经网络结构使用方法进行分析,由于在红细胞定位过程中,可能有一些杂质掺杂进来,为了区别这些杂质(本项目统称为非红细胞),需要对红细胞进行特征提取。

2??卷积神经网络结构及优化算法

2.1?卷积神经网络概述

卷积神经网络作为一种多层次神经网络结构,通过对图像分类以及识别算法的运用,逐渐形成了深度学习的模式,其作为前馈神经网络形式,可以充分满足识别技术的使用需求。在卷积神经网络中,通过人体设计感受机理的分析,会提高识别技术的使用效率。例如,在人体神经元系统中,神经元感受视野是在视网膜的特定区域中形成的,通过卷积神经网络才可以刺激神经元活性,提高识别算法使用的整体效果。

卷积神经网络与普通神经网络存在区别,主要由卷基层、子采样层构成,在卷基层中,通过神经元与部分邻层神经元的连接,可以形成同一特征的平面神经元共享权值,提高识别计算的整体效果。卷积神经网络技术凭借自身优势被广泛地运用在语音识别、人脸识别、运动分析、自然语言处理以及脑电波分析等领域之中。

2.2?卷积神经网络结构

2.2.1?卷积神经层

在卷积操作中,其主要是将图像以及滤波矩阵作为内积,主要目的是通过稀疏连接、权值共享以及采样等方法,得到某种程度的位移、初度及形变。在图像处理中,需要在系统中输入width×height区域的大小数据,之后按照固定权重的卷积核形成二维数据,具体操作中,需要与矩阵上对应位置移动状态进行分析,形成一种覆盖性的图像,直到矩阵移动完成之后得到特征图矩阵。在卷积神经层中,卷积核越大,相关参数的处理效果越高,但是若遇到训练参数多、卷积核小的问题,应该保持训练参数的精确性,为多层数据的处理以及分析效果的强化提供参考[2]。

2.2.2?ReLU激励层

对于规范性的ReLU激活函数,具体函数变化如图1所示。具体的表达公式为(1),当输入x0时,输出值为x;若输出的数值≤0,输出的结果为0。

y={0,max(x)}???(1)

在红细胞图卷积神经网络系统中,通常会使用ReLU激励函数代替sigmoid函数。在ReLU激励层中,当所输入的数值x0時,ReLU函数导数为恒定状态,但是sigmoid函数不是恒定的。也就是说,在ReLU函数中,可以避免其他函数两端接近目标的问题,在导数变小的状况下,会使训练神经网络出现反向传播的现象。在ReLU函数分析中,该种方法可以实现数据获取快、求梯速度简单。

2.2.3?池化pool层

池化层作为空间下采样层,一般会在卷基层之后,通过图像卷积将polling小领域内特点进行整合,从而形成一种全新的特征。同时,pool层也被称为降采样层,该计算方法不仅可以达到降维的目的,而且也会降低卷基层的输出维度,避免卷积输出的误差现象[3]。

2.3?反向传播梯度下降算法

在红细胞神经网络参数计算中,通常会使用随机梯度下降法,其核心目标是掌握最优化的权重参数(W,b),将损失函数值控制在最小的状态。参数更新的关键是掌握损失

文档评论(0)

王水玉 + 关注
实名认证
内容提供者

前面

1亿VIP精品文档

相关文档