《动手学深度学习(第二版)》学习笔记之 13. 计算机视觉
本章开头将介绍两种可以改进模型泛化的方法,即图像增广和微调,并将它们应用于图像分类。秉承计算机视觉中利用分层表示的关键思想,我们将从物体检测的主要组件和技术开始,继而展示如何使用完全卷积网络对图像进行语义分割,然后我们将解释如何使用样式迁移技术来生成像本书封面一样的图像
本章开头将介绍两种可以改进模型泛化的方法,即图像增广和微调,并将它们应用于图像分类。秉承计算机视觉中利用分层表示的关键思想,我们将从物体检测的主要组件和技术开始,继而展示如何使用完全卷积网络对图像进行语义分割,然后我们将解释如何使用样式迁移技术来生成像本书封面一样的图像
在深度学习中,数据集和模型通常都很大,导致计算量也会很大。因此,计算的性能非常重要。本章将集中讨论影响计算性能的主要因素:命令式编程、符号编程、异步计算、自动并行和多 GPU 计算
优化算法对于深度学习非常重要。一方面,优化算法的性能直接影响模型的训练效率。另一方面,理解不同优化算法的原理及其超参数的作用将使我们能够以有针对性的方式调整超参数,以提高深度学习模型的性能
意识的聚集和专注使灵长类动物能够在复杂的视觉环境中将注意力引向感兴趣的物体,例如猎物和天敌。只关注一小部分信息的能力对进化更加有意义,使人类得以生存和成功
我们将引入两个广泛使用的网络,即门控循环单元(gated recurrent unit,GRU)和长短期记忆网络(long short-term memory,LSTM)。然后,我们将基于一个单向隐藏层来扩展循环神经网络架构
如果说卷积神经网络可以有效地处理空间信息,那么本章的循环神经网络(recurrent neural network,RNN)则可以更好地处理序列信息。循环神经网络通过引入状态变量存储过去的信息和当前的输入,从而可以确定当前的输出
本章将介绍现代的卷积神经网络架构,许多现代卷积神经网络的研究都是建立在这些模型的基础上的。本章中的每一个模型都曾一度占据主导地位,其中许多模型都是 ImageNet 竞赛的优胜者
本章开始我们将介绍构成所有卷积网络主干的基本元素。这包括卷积层本身、填充和步幅等细节、用于聚合相邻区域信息的池化层、各层多通道的使用,以及对现代卷积网络架构的仔细讨论。本章最后将完整实现 LeNet 网络——这是现代深度学习兴起前首个成功部署的卷积网络