其他
深度学习:基于Pytorch的实现 | 第二章 神经网络的张量与数学基础
学习目标
通过本章的学习,读者可以掌握:
1、张量的概念与创建方式;2、张量的基本操作;3、张量的运算;4、神经网络的导数、偏导数基础;5、梯度与链式求导法则。导言
在正式进入深度学习核心内容之前,我们需要先掌握一些有关神经网络的基础知识,这包括神经网络的张量(Tensor)基础和数学基础。由于本书全部的代码实现是基于PyTorch框架,因此有必要先了解PyTorch中常用的数据结构:张量,英文为Tensor。具体地,我们将介绍张量的基本概念以及常见的创建方式,张量的基本操作(例如索引、拼接、分割等等),张量的运算(包括单个张量与多个张量的运算)。此外,我们还将回顾与神经网络十分相关的数学基础,导数和偏导数的定义以及相关求解法则。最后,作为后面章节的铺垫,我们还将介绍梯度的数学含义。本章内容是后续章节利用PyTorch搭建神经网络的基础。
本章目录
第2章 神经网络的张量与数学基础
2.1 张 量
2.1.1 张量的定义
2.1.2 张量的数据类型
2.1.3 张量的创建方式
2.1.4 应用:图像数据转张量
2.2 张量的操作
2.2.1 获取和改变张量形状
2.2.2 提取张量中的元素
2.2.3 张量的拼接与拆分
2.3 张量的运算
2.3.1 基本运算
2.3.2 统计相关运算
2.3.3 矩阵运算
2.4 深度学习的导数基础
2.4.1 单变量函数和导数
2.4.2 多变量函数和偏导数
2.4.3 复合函数和链式求导法则
2.5 梯度下降算法的含义与公式
2.6 本章小结
本书数据和代码下载链接:
京东购买
当当购买