书籍:Mastering Transformers: The Journey from BERT to Large Language Models and Stable Diffusion,2nd Edition
作者:Savaş Yıldırım,Meysam Asgari-Chenaghlu
出版:Packt Publishing
编辑:陈萍萍的公主@一点人工一点智能
下载:书籍下载-《掌握Transformer:从BERT到大模型和Stable Diffusion(第二版)》
01 书籍介绍
基于Transformer架构的语言模型,如BERT、T5、GPT、DALL-E和ChatGPT,在自然语言处理(NLP)领域占据了主导地位,并成为了一种新的范式。得益于它们准确且快速的微调能力,基于Transformer的模型在许多具有挑战性的自然语言理解(NLU)问题上超越了传统的机器学习方法。
除了NLP,一个多模态学习和生成AI的快速成长领域也已崭露头角,展现了令人鼓舞的结果。《掌握Transformer》一书将帮助您理解和实现包括文本到图像在内的多模态解决方案。书中还解释了基于Transformer的计算机视觉解决方案。
您将从了解各种Transformer模型开始,逐步学习如何训练不同的自回归语言模型,例如GPT和XLNet。本书还将介绍提升模型性能的方法以及使用TensorBoard工具包跟踪模型训练的技术。
在后续章节中,您将专注于利用视觉Transformer解决计算机视觉问题。最后,您将了解到如何利用Transformer的强大功能来建模时间序列数据并进行预测。通过阅读这本书,您将掌握Transformer模型,并学会如何用它们解决NLP和计算机视觉领域的挑战。
您将学到的内容:
· 使用Python解决简单到复杂的NLP问题。
· 探索如何通过传统NLP方法解决分类/回归问题。
· 训练语言模型并探索如何针对下游任务微调模型。
· 学习如何使用Transformer进行生成AI和计算机视觉任务。
· 利用Python中的Transformers库构建基于Transformer的NLP应用程序。
· 专注于诸如机器翻译和对话AI等语言生成任务,适用于任何语言。
· 加快Transformer模型推理速度以减少延迟。
本书适合的读者:本书面向深度学习研究者、实践操作人员及ML/NLP研究人员。此外,对于那些具备编程知识、机器学习和人工智能领域知识,并希望开发NLP应用及多模态任务的学生和教育工作者来说,本书的实际操作方法也将大有裨益。读者需要具备Python(或任何编程语言)的知识、机器学习文献的基础了解以及计算机科学的基本概念。
02 作者简介
Savaş Yıldırım毕业于伊斯坦布尔技术大学计算机工程系,并获得了自然语言处理(NLP)博士学位。目前,他是土耳其伊斯坦布尔比尔吉大学的副教授,同时也是加拿大瑞尔森大学的访问研究员。他是一位积极的教学者和研究者,拥有超过20年教授机器学习、深度学习和NLP课程的经验。他在土耳其NLP社区中做出了重要贡献,开发了许多开源软件和资源。他还为AI公司提供全面的研发项目咨询服务。业余时间,他创作并执导短片,同时享受瑜伽练习。
Meysam Asgari-Chenaghlu是Carbon Consulting公司的AI经理,也是塔布里兹大学的博士候选人。他曾担任土耳其领先电信和银行公司的顾问,并参与过多个项目,包括自然语言理解和语义搜索。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。