网站大量收购独家精品文档,联系QQ:2885784924

深度学习案例教程 教案4.1 FashionMNIST图像分类任务介绍.docx

深度学习案例教程 教案4.1 FashionMNIST图像分类任务介绍.docx

  1. 1、本文档共8页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

(p1)

本节课我们来学习第四章,使用卷积网络实现图像分类。

(p2)

本章的学习目标可以明确为以下几点:

第一点,了解卷积神经网络的基本结构。

卷积神经网络是一种专门用于处理具有网格结构数据(如图像、音频等)的神经网络。

了解卷积神经网络的基本结构包括了解卷积层、池化层和全连接层等组成部分,以及它们在网络中的作用和相互连接方式。

第二点,掌握卷积神经网络的基本原理,并熟悉其主要应用。

卷积神经网络通过使用卷积操作和池化操作来提取图像的特征,并通过全连接层进行分类。

掌握这些基本原理可以帮助我们理解卷积神经网络的工作原理,

并了解其在图像分类、目标检测、语义分割等任务中的应用。

第三点,能够搭建和训练卷积神经网络模型。

了解卷积神经网络的基本结构和原理后,

我们需要学会如何使用深度学习框架PyTorch来搭建和训练卷积神经网络模型。

这包括模型的搭建、参数的初始化、损失函数的定义、优化器的选择等步骤。

第四点,解决实际的图像分类问题,

对图像数据进行预处理和增强。在实际应用中,我们常常需要解决各种图像分类问题。

为了提高模型的性能,我们需要对图像数据进行预处理和增强。

预处理包括对图像进行标准化、大小调整等操作,增强包括数据增强技术(如随机裁剪、翻转、旋转等)来扩充训练数据集。

掌握这些技巧可以帮助我们提高模型的泛化能力和抗干扰能力。

通过实现以上学习目标,我们可以全面掌握卷积神经网络的基本结构、原理与应用,

并能够应用于实际图像分类问题中。

这将为我们进一步深入学习和应用深度学习提供坚实的基础。

(p3)

还有培养我们大家的素质目标。

首先,培养大家构建和训练卷积神经网络模型,提高实践动手能力。

培养良好的编程代码习惯。

以及提高问题分析和解决问题的能力。

然后培养大家团队合作以及沟通能力,最后培养持续学习的意识和能力。

(p4)

我们本章的实践任务。

第一个我们会准备相关的数据。

第二个,搭建CNN模型。

第三个训练模型,

第四个测试模型。

(p5)

接下来,我们来学习我们本章的第一节。

FashionMNIST图像分类任务介绍

首先我们先来看一下它的任务需求。

FashionMNIST是一个常用的图像分类数据集,

它由包含了10个类别的灰度图像,

每个类别包含6000张训练图像和1000张测试图像,

图像大小为28x28像素。

FashionMNIST的任务是将28x28像素的灰度图像分类到10个不同的类别,

包括T恤/上衣、裤子、套衫、连衣裙、外套、凉鞋、衬衫、运动鞋、手提包和踝靴。

这个任务的挑战在于,所有的图像都是灰度图像,

并且类别之间的差异较小,需要通过学习图像中微小的特征来进行分类。

这个任务是一个典型的图像分类问题,也是卷积神经网络的常见应用之一。

在本章中,我们将使用FashionMNIST数据集来构建和训练一个卷积神经网络,

来实现图像分类的任务。

通过这个任务,你将学习如何构建和训练卷积神经网络,

并且掌握深度学习中常用的数据处理和调参技巧。

为了完成这个任务,我们需要对数据进行预处理,

包括将图像转换为张量、对图像进行归一化处理等。

然后,我们需要构建一个卷积神经网络模型,

包括卷积层、池化层、全连接层等。

在构建好模型之后,我们需要对模型进行训练,

并且对模型进行调参,以提高模型的性能。

在训练过程中,我们需要使用交叉熵损失函数来评价模型的性能,

并且使用反向传播算法来更新模型的参数。

在训练完成后,我们需要对模型进行测试,

并且计算模型的准确率、精确率、召回率和F1值等评价指标。

(P6)

我们来看一下相关的技术分析。

之前介绍的全连接的神经网络中使用了全连接层。

在全连接层中,相邻层的神经元全部连接在一起,

输出的数量可以任意决定。下面我们分析全连接神经网络存的问题。

首要的问题是数据的形状被“忽视”了。

比如,输入数据是图像时,图像通常是高、长、通道方向上的3维形状。

但是,向全连接层输入时,需要将3维数据拉平为1维数据。

实际上,前面提到的使用了MNIST数据集的例子中,

输入图像就是1通道、高28像素、长28像素的(1,28,28)形状,

但却被排成1列,以784个数据的形式输入到最开始的神经元中进行计算。

图像是3维形状,这个形状中应该含有重要的空间信息。

比如,空间上邻近的像素为相似的值、

RBG的各个通道之间分别有密切的关联性、

相距较远的像素之间没有什么关联等,

3维形状中可能隐藏有值得提取的本质模式。

但是,因为全连接层会忽视形状,

将全部的输入数据作为相同的神经元(同一维度的神经元)处理,

所以无法利用与形状相关的信息。

而卷积层可以保持形状不变。

当输入数据是图像时,卷积层会以3维数据的形式接收输入数据,

并同样以3维数据的形式输出至下一层。

因此,

您可能关注的文档

文档评论(0)

xiaobao + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档