- 课时1 深度学习框架简介
- 课时2 PyTorch功能演示
- 课时3 开发环境安装(简介)
- 课时4 简单回归问题-1
- 课时5 简单回归问题-2
- 课时6 回归问题实战
- 课时7 分类问题引入-1
- 课时8 分类问题引入-2
- 课时9 手写数字识别初体验-1
- 课时10 手写数字识别初体验-2
- 课时11 手写数字识别初体验-3
- 课时12 手写数字识别初体验-4
- 课时13 手写数字识别初体验-5
- 课时14 张量数据类型-1
- 课时15 张量数据类型-2
- 课时16 创建Tensor-1
- 课时17 创建Tensor-2
- 课时18 索引与切片-1
- 课时19 索引与切片-2
- 课时20 维度变换-1
- 课时21 维度变换-2
- 课时22 维度变换-3
- 课时23 维度变换-4
- 课时24 Broadcasting-1
- 课时25 Broadcasting-2
- 课时26 Broadcasting-3
- 课时27 合并与分割-1
- 课时28 合并与分割-2
- 课时29 数学运算-1
- 课时30 数学运算-2
- 课时31 属性统计-1
- 课时32 属性统计-2
- 课时33 高阶操作
- 课时34 什么是梯度-1
- 课时35 什么是梯度-2
- 课时36 常见函数的梯度
- 课时37 激活函数与Loss的梯度-1
- 课时38 激活函数与Loss的梯度-2
- 课时39 激活函数与Loss的梯度-3
- 课时40 激活函数与Loss的梯度-4
- 课时41 感知机的梯度推导-1
- 课时42 感知机的梯度推导-2
- 课时43 链式法则
- 课时44 反向传播算法-1
- 课时45 反向传播算法-2
- 课时46 优化问题实战
- 课时47 Logistic Regression
- 课时48 交叉熵-1
- 课时49 交叉熵-2
- 课时50 多分类问题实战
- 课时52 激活函数与GPU加速
- 课时53 MNIST测试实战
- 课时54 Visdom可视化
- 课时55 过拟合与欠拟合
- 课时56 交叉验证-1
- 课时57 交叉验证-2
- 课时58 Regularization
- 课时59 动量与学习率衰减
- 课时60 Early stopping dropout等
- 课时61 什么是卷积-1
- 课时62 什么是卷积-2
- 课时63 卷积神经网络-1
- 课时64 卷积神经网络-2
- 课时65 卷积神经网络-3
- 课时66 池化层与采样
- 课时67 BatchNorm-1
- 课时68 BatchNorm-2
- 课时69 经典卷积网络 LeNet5AlexNet VGG GoogLeNet-1
- 课时70 经典卷积网络 LeNet5AlexNet VGG GoogLeNet-2
- 课时71 ResNet与DenseNet-1
- 课时72 ResNet与DenseNet-2
- 课时73 nn.Module模块-1
- 课时74 nn.Module模块-2
- 课时75 数据增强
- 课时76 CIFAR10数据集介绍
- 课时77 卷积神经网络实战-1
- 课时78 卷积神经网络实战-2
- 课时79 卷积神经网络训练
- 课时80 ResNet实战-1
- 课时81 ResNet实战-2
- 课时82 ResNet实战-3
- 课时83 ResNet实战-4
- 课时84 实战小结
- 课时85 时间序列表示方法
- 课时86 RNN原理-1
- 课时87 RNN原理-2
- 课时88 RNN Layer使用-1
- 课时89 RNN Layer使用-2
- 课时90 时间序列预测实战
- 课时91 梯度弥散与梯度爆炸
- 课时92 LSTM原理-1
- 课时93 LSTM原理-2
- 课时94 LSTM Layer使用
- 课时95 情感分类问题实战
- 课时96 Pokemon数据集
- 课时97 数据预处理
- 课时98 自定义数据集实战-1
- 课时99 自定义数据集实战-2
- 课时100 自定义数据集实战-3
- 课时101 自定义数据集实战-4
- 课时102 自定义数据集实战-5
- 课时103 自定义网络
- 课时104 自定义网络训练与测试
- 课时105 自定义网络实战
- 课时106 迁移学习
- 课时107 迁移学习实战
- 课时108 无监督学习
- 课时109 Auto-Encoder原理
- 课时110 Auto-Encoder变种
- 课时111 Adversarial Auto-Encoder
- 课时112 变分Auto-Encoder引入
- 课时113 Reparameterization trick
- 课时114 变分自编码器VAE
- 课时115 Auto-Encoder实战-1
- 课时116 Auto-Encoder实战-2
- 课时117 变分Auto-Encoder实战-1
- 课时118 变分Auto-Encoder实战-2
- 课时119 数据的分布
- 课时120 画家的成长历程
- 课时121 GAN原理
- 课时122 纳什均衡-D
- 课时123 纳什均衡-G
- 课时124 JS散度的缺陷
- 课时125 EM距离
- 课时126 WGAN与WGAN-GP
- 课时127 GAN实战-GD实现
- 课时128 GAN实战-网络训练
- 课时129 GAN实战-网络训练鲁棒性
- 课时130 WGAN-GP实战
内容提要
《深度学习框架PyTorch:入门与实践》从多维数组Tensor开始,循序渐进地带领读者了解PyTorch各方面的基础知识。结合基础知识和前沿研究,带领读者从零开始完成几个经典有趣的深度学习小项目,包括GAN生成动漫头像、AI滤镜、AI写诗等。《深度学习框架PyTorch:入门与实践》没有简单机械地介绍各个函数接口的使用,而是尝试分门别类、循序渐进地向读者介绍PyTorch的知识,希望读者对PyTorch有一个完整的认识。
《深度学习框架PyTorch:入门与实践》内容由浅入深,无论是深度学习的初学者,还是第一次接触PyTorch的研究人员,都能在学习本书的过程中快速掌握PyTorch。即使是有一定PyTorch使用经验的用户,也能够从本书中获得对PyTorch不一样的理解。
目录
1 PyTorch简介
1.1 PyTorch的诞生
1.2 常见的深度学习框架简介
1.2.1 Theano
1.2.2 TensorFlow
1.2.3 Keras
1.2.4 Caffe/Caffe2
1.2.5 MXNet
1.2.6 CNTK
1.2.7 其他框架
1.3 属于动态图的未来
1.4 为什么选择PyTorch
1.5 星火燎原
1.6 fast.ai 放弃Keras+TensorFlow选择PyTorch
2 快速入门
2.1 安装与配置
2.1.1 安装PyTorch
2.1.2 学习环境配置
2.2 PyTorch入门第一步
2.2.1 Tensor
2.2.2 Autograd:自动微分
2.2.3 神经网络
2.2.4 小试牛刀:CIFAR-10分类
3 Tensor和autograd
3.1 Tensor
3.1.1 基础操作
3.1.2 Tensor和Numpy
3.1.3 内部结构
3.1.4 其他有关Tensor的话题
3.1.5 小试牛刀:线性回归
3.2 autograd
3.2.1 Variable
3.2.2 计算图
3.2.3 扩展autograd
3.2.4 小试牛刀:用Variable实现线性回归
4 神经网络工具箱nn
4.1 nn.Module
4.2 常用的神经网络层
4.2.1 图像相关层
4.2.2 激活函数
4.2.3 循环神经网络层
4.2.4 损失函数
4.3 优化器
4.4 nn.functional
4.5 初始化策略
4.6 nn.Module深入分析
4.7 nn和autograd的关系
4.8 小试牛刀:用50行代码搭建ResNet
5 PyTorch中常用的工具
5.1 数据处理
5.2 计算机视觉工具包:torchvision
5.3 可视化工具
5.3.1 Tensorboard
5.3.2 visdom
5.4 使用GPU加速:cuda
5.5 持久化
6 PyTorch实战指南
6.1 编程实战:猫和狗二分类
6.1.1 比赛介绍
6.1.2 文件组织架构
6.1.3 关于__init__.py
6.1.4 数据加载
6.1.5 模型定义
6.1.6 工具函数
6.1.7 配置文件
6.1.8 main.py
6.1.9 使用
6.1.10 争议
6.2 PyTorch Debug 指南
6.2.1 ipdb 介绍
6.2.2 在PyTorch中Debug
7 AI插画师:生成对抗网络
7.1 GAN的原理简介
7.2 用GAN生成动漫头像
7.3 实验结果分析
8 AI艺术家:神经网络风格迁移
8.1 风格迁移原理介绍
8.2 用PyTorch实现风格迁移
8.3 实验结果分析
9 AI诗人:用RNN写诗
9.1 自然语言处理的基础知识
9.1.1 词向量
9.1.2 RNN
9.2 CharRNN
9.3 用PyTorch实现CharRNN
9.4 实验结果分析
10 Image Caption:让神经网络看图讲故事
10.1 图像描述介绍
10.2 数据
10.2.1 数据介绍
10.2.2 图像数据处理
10.2.3 数据加载
10.3 模型与训练
10.4 实验结果分析
11 展望与未来
11.1 PyTorch的局限与发展
11.2 使用建议