大模型动力引擎——PyTorch性能与显存优化手册

作者: 张爱玲、杨占略

出版社: 清华大学出版社

出版日期: 2024-10-01

电子书 ¥57.85 定价:89.0
  • 收藏

  • 加书架

  • 引用

简介

本书致力于探索如何在大规模深度学习模型训练中,最大限度地提高性能和优化显存使用。本书面向深度学习从业者,尤其是希望深入了解并提升模型训练效率的工程师与研究人员。随着深度学习模型和数据规模的迅速增长,如何高效利用硬件资源,减少训练时间,成为当前AI系统工程的关键挑战。本书从硬件和软件的基础知识入手,逐步引导读者理解和掌握PyTorch的优化技巧。内容涵盖从单机到分布式训练,从显存管理到性能分析的多种优化策略,力求通过丰富的代码实例和深入的原理讲解,使读者能够在实践中灵活应用这些方法。 本书共分10章:第1~4章为基础知识,介绍深度学习所需的硬件与软件基础,帮助读者理解性能瓶颈的根源;第5~8章为优化策略,结合具体的代码示例,详细探讨训练过程中的各种优化方法及其背后的原理;第9和10章为综合实践,通对GPT模型的优化实例,直观展示如何在实际项目中实施并衡量各种优化技术的效果。 本书适合希望优化现有模型的资深工程师,也适合初次接触PyTorch性能优化的新手,本书将提供实用的指导和技术支持,帮助读者在日益复杂的深度学习领域中保持竞争力。

更多出版物信息
  • 版权: 清华大学出版社
  • 出版: 2024-10-01
  • 作者:张爱玲、杨占略
  • 更新: 2024-12-06
  • 书号:9787302673477
  • 中图:TP181-62
  • 学科:
    工学
    控制科学与工程
    工学
    计算机科学与技术
    交叉学科
    智能科学与技术

作者信息

张爱玲、杨占略

张爱玲 本科毕业于清华大学电子工程系,后在美国伊利诺伊大学香槟分校获得计算机科学硕士学位,是AI系统工程领域的资深技术专家。作为深度学习框架PyTorch核心团队成员,参与了多个关键组件的研发与优化工作。同时,她作为技术负责人主导了PyTorch/XLA和Taichi编译器等多个具有广泛影响力的开源项目。目前在工业界专注于大规模语言模型训练的基础设施开发与性能优化工作。 杨占略 清华大学本科,哥伦比亚大学硕士,资深技术专家。曾先后任职于苹果、百度、太极图形公司,分别从事深度学习推理框架、训练框架PaddlePaddle以及Taichi编译器的开发。现就职于大疆公司,聚焦于端侧模型优化、推理部署相关工作。

相关图书