简介
Transformer模型作为深度学习领域的革新性架构,已广泛应用于自然语言处理(NLP)的各个方面。本书系统解析Transformer的核心原理,从理论到实践,帮助读者全面掌握其在语言模型中的应用,并通过丰富案例剖析技术细节。全书共12章,内容涵盖Transformer模型的架构原理、自注意力机制及其相对于传统方法的优势,并详细剖析BERT、GPT等经典衍生模型的应用。书中围绕数据预处理、文本分类、序列标注、文本生成、多语言模型等核心任务,结合迁移学习、微调与优化技术,展示Transformer在语义匹配、问答系统和文本聚类等场景中的实际应用。针对企业级开发需求,还特别介绍了ONNX与TensorRT优化推理性能的最佳实践,为大规模数据处理及低资源部署提供解决方案。本书兼具理论深度与实践指导,内容系统,案例丰富,适合对Transformer模型及其在NLP中的应用感兴趣的工程师、研究人员、数据科学家以及高校师生阅读。
更多出版物信息
- 版权: 清华大学出版社
- 出版: 2025-04-01
- 更新: 2025-05-19
- 书号:9787302685623
- 中图:TP391
- 学科:工学控制科学与工程工学计算机科学与技术
相关图书
-
Python推荐系统实战:基于深度学习、NLP和图算法的应用型推荐系统
[印]阿克谢·库尔卡尼(Akshay Kulkarni),阿达沙·希瓦南达(Adarsha Shivananda),安努什·库尔卡尼(Anoosh Kulkarni),V.阿迪西亚·克里希南(V.Adithya Krishnan)著;欧拉 译
¥99.00