查看原文
其他

深度学习:基于Pytorch的实现 | 第二章 神经网络的张量与数学基础

狗熊会 狗熊会 2023-10-27




学习目标

通过本章的学习,读者可以掌握:

1、张量的概念与创建方式;2、张量的基本操作;3、张量的运算;4、神经网络的导数、偏导数基础;5、梯度与链式求导法则。




导言

在正式进入深度学习核心内容之前,我们需要先掌握一些有关神经网络的基础知识,这包括神经网络的张量(Tensor)基础和数学基础。由于本书全部的代码实现是基于PyTorch框架,因此有必要先了解PyTorch中常用的数据结构:张量,英文为Tensor。具体地,我们将介绍张量的基本概念以及常见的创建方式,张量的基本操作(例如索引、拼接、分割等等),张量的运算(包括单个张量与多个张量的运算)。此外,我们还将回顾与神经网络十分相关的数学基础,导数和偏导数的定义以及相关求解法则。最后,作为后面章节的铺垫,我们还将介绍梯度的数学含义。本章内容是后续章节利用PyTorch搭建神经网络的基础。




本章目录

第2章 神经网络的张量与数学基础

2.1 张 量

2.1.1 张量的定义

2.1.2 张量的数据类型

2.1.3 张量的创建方式

2.1.4 应用:图像数据转张量

2.2 张量的操作

2.2.1 获取和改变张量形状

2.2.2 提取张量中的元素

2.2.3 张量的拼接与拆分

2.3 张量的运算

2.3.1 基本运算

2.3.2 统计相关运算

2.3.3 矩阵运算

2.4 深度学习的导数基础

2.4.1 单变量函数和导数

2.4.2 多变量函数和偏导数

2.4.3 复合函数和链式求导法则

2.5 梯度下降算法的含义与公式

2.6 本章小结


本书数据和代码下载链接:



京东购买



当当购买



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存