| ISBN/价格: | 978-7-115-65056-6:CNY69.80 |
|---|---|
| 作品语种: | chi |
| 出版国别: | CN 110000 |
| 题名责任者项: | 预训练语言模型/.徐双双编著 |
| 出版发行项: | 北京:,人民邮电出版社:,2025 |
| 载体形态项: | 216页:;+图:;+26cm |
| 提要文摘: | 本书内容分为基础知识、预训练语言模型, 以及实践与应用3个部分, 共9章。第一部分全面、系统地介绍自然语言处理、神经网络和预训练语言模型的相关知识。第二部分介绍几种具有代表性的预训练语言模型的原理和机制 (涉及注意力机制和Transformer模型), 包括BERT及其变种, 以及近年来发展迅猛的GPT和提示工程。第三部分介绍了基于LangChain和ChatGLM-6B的知识库问答系统、基于大型语言模型的自然语言处理任务应用研究和大模型训练实战等具体应用, 旨在从应用的角度加深读者对预训练语言模型理论的理解, 便于读者在实践中提高技能, 达到理论和实践的统一。 |
| 题名主题: | 自然语言处理 |
| 中图分类: | TP391 |
| 个人名称等同: | 徐双双 编著 |
| 记录来源: | CN BWZ 20250612 |