PyTorch深度学习指南

本网站不提供下载链接,喜欢看书的朋友请关注公众号:【lennylee的碎碎念】(lennyleede),首页回复:授人以渔,自动获取搜索资源的方法。

内容简介:

“PyTorch深度学习指南”丛书循序渐进地详细讲解了与深度学习相关的重要概念、算法和模型,并着重展示了PyTorch是如何实现这些算法和模型的。其共分三卷:编程基础、计算机视觉、序列与自然语言处理。

本书为该套丛书的第一卷:编程基础。本书主要介绍了梯度下降和PyTorch的Autograd;训练循环、数据加载器、小批量和优化器;二元分类器、交叉熵损失和不平衡数据集;决策边界、评估指标和数据可分离性等内容。

本书适用于对深度学习感兴趣,并希望使用PyTorch实现深度学习的Python程序员阅读学习。

作者简介:

前 言
致 谢
关于作者
译者序
常见问题
为什么选择PyTorch?
为什么选择这套书?
谁应该读这套书?
我需要知道什么?
如何阅读这套书?
下一步是什么?
设置指南
官方资料库
环境
谷歌Colab
Binder
本地安装
继续
第0章 可视化梯度下降
剧透
Jupyter Notebook
导入
可视化梯度下降
模型
数据生成
合成数据生成
训练-验证-测试拆分
第0步——随机初始化
第1步——计算模型的预测
第2步——计算损失
损失面
横截面
第3步——计算梯度
可视化梯度
反向传播
第4步——更新参数
学习率
第5步——循环往复
梯度下降的路径
回顾
第1章 一个简单的回归问题
剧透
Jupyter Notebook
导入
一个简单的回归问题
数据生成
合成数据生成
梯度下降
第0步——随机初始化
第1步——计算模型的预测
第2步——计算损失
第3步——计算梯度
第4步——更新参数
第5步——循环往复
Numpy中的线性回归
PyTorch
张量
加载数据、设备和CUDA
创建参数
Autograd
backward
grad
zero_
更新参数
no_grad
动态计算图
优化器
step/zero_grad
损失
模型
参数
state_dict
设备
前向传递
训练
嵌套模型
序列(Sequential)模型

归纳总结
数据准备
模型配置
模型训练
回顾
第2章 重新思考训练循环
剧透
Jupyter Notebook
导入
重新思考训练循环
训练步骤
Dataset
TensorDataset
DataLoader
小批量内循环
随机拆分
评估
绘制损失
TensorBoard
在Notebook中运行
单独运行(本地安装)
单独运行(Binder)
SummaryWriter
add_graph
add_scalars
保存和加载模型
模型状态
保存
恢复训练
部署/做出预测
设置模型的模式
归纳总结
回顾
第2.1章 追求优雅
剧透
Jupyter Notebook
导入
追求优雅

构造方法
训练方法
保存和加载方法
可视化方法
完整代码
典型的管道
模型训练
做出预测
检查点
恢复训练
归纳总结
回顾
第3章 一个简单的分类问题
剧透
Jupyter Notebook
导入
一个简单的分类问题
数据生成
数据准备
模型
logit
概率
比值比(Odds Ratio)
对数比值比
从logit到概率
Sigmoid
逻辑斯蒂回归
损失
BCELoss
BCEWithLogitsLoss
不平衡数据集
模型配置
模型训练
决策边界
分类阈值
混淆矩阵
指标
权衡和曲线
归纳总结
回顾
· · · · · · (收起)

原文摘录: