PyTorch-2.0深度学习从零开始学(王晓华)

书: https://pan.baidu.com/s/1LWWovU7IScpiddLrDhjl1w?pwd=pc5n
笔记如下:

  1. PyTorch简介:介绍PyTorch的特点、安装方法及基本张量操作。
  2. 张量基础:讲解Tensor的创建、运算、广播机制及与NumPy的互操作。
  3. 自动微分:使用autograd模块实现自动求导,理解计算图和梯度传播。
  4. 神经网络基础:通过nn.Module构建全连接网络,介绍前向传播与反向传播。
  5. 数据加载与预处理:利用DatasetDataLoader实现高效数据批处理与增强。
  6. 卷积神经网络(CNN):实现LeNet、ResNet等经典模型,应用于图像分类任务。
  7. 循环神经网络(RNN):介绍LSTM、GRU的结构及在时序数据(如文本、股价)中的应用。
  8. Transformer模型:实现自注意力机制,构建简易Transformer进行序列建模。
  9. 模型训练技巧:学习优化器(SGD、Adam)、学习率调度与早停策略。
  10. 损失函数选择:对比交叉熵、MSE、Huber等损失函数的适用场景。
  11. 模型保存与加载:使用torch.savetorch.load实现模型的持久化。
  12. GPU加速:配置CUDA环境,将模型与数据迁移到GPU训练。
  13. 分布式训练:介绍DataParallelDistributedDataParallel的多GPU训练方法。
  14. 混合精度训练:使用amp(自动混合精度)提升训练速度并减少显存占用。
  15. 模型部署:通过TorchScript和ONNX将模型导出为生产环境可用格式。
  16. 迁移学习:微调预训练模型(如BERT、Vision Transformer)解决自定义任务。
  17. 生成对抗网络(GAN):实现DCGAN生成手写数字或人脸图像。
  18. 强化学习基础:结合PyTorch和OpenAI Gym实现DQN算法。
  19. 模型解释性:使用Captum库进行特征重要性分析和可视化。
  20. PyTorch 2.0新特性:介绍编译优化(torch.compile)、动态图改进等核心升级。

发表评论

您的电子邮箱地址不会被公开。 必填项已用 * 标注