《动手学深度学习(第二版)》学习笔记之 11. 优化算法
优化算法对于深度学习非常重要。一方面,优化算法的性能直接影响模型的训练效率。另一方面,理解不同优化算法的原理及其超参数的作用将使我们能够以有针对性的方式调整超参数,以提高深度学习模型的性能
优化算法对于深度学习非常重要。一方面,优化算法的性能直接影响模型的训练效率。另一方面,理解不同优化算法的原理及其超参数的作用将使我们能够以有针对性的方式调整超参数,以提高深度学习模型的性能
意识的聚集和专注使灵长类动物能够在复杂的视觉环境中将注意力引向感兴趣的物体,例如猎物和天敌。只关注一小部分信息的能力对进化更加有意义,使人类得以生存和成功
我们将引入两个广泛使用的网络,即门控循环单元(gated recurrent unit,GRU)和长短期记忆网络(long short-term memory,LSTM)。然后,我们将基于一个单向隐藏层来扩展循环神经网络架构
如果说卷积神经网络可以有效地处理空间信息,那么本章的循环神经网络(recurrent neural network,RNN)则可以更好地处理序列信息。循环神经网络通过引入状态变量存储过去的信息和当前的输入,从而可以确定当前的输出
本章将介绍现代的卷积神经网络架构,许多现代卷积神经网络的研究都是建立在这些模型的基础上的。本章中的每一个模型都曾一度占据主导地位,其中许多模型都是 ImageNet 竞赛的优胜者
本章开始我们将介绍构成所有卷积网络主干的基本元素。这包括卷积层本身、填充和步幅等细节、用于聚合相邻区域信息的池化层、各层多通道的使用,以及对现代卷积网络架构的仔细讨论。本章最后将完整实现 LeNet 网络——这是现代深度学习兴起前首个成功部署的卷积网络
在本章中,我们将深入探索深度学习计算的关键组件,即模型构建、参数访问与初始化、设计自定义层和块、将模型读写到磁盘,以及利用 GPU 实现显著的加速
最简单的深度网络称为多层感知机。多层感知机由多层神经元组成,每一层与它的上一层相连,从中接收输入;同时每一层也与它的下一层相连,影响当前层的神经元