原创 happy-llm Datawhale

 Datawhale开源 

开源贡献:Datawhale happy-llm团队

开源初心

很多小伙伴在看完《self-llm:开源大模型食用指南》后,感觉意犹未尽,想要深入了解大语言模型的原理和训练过程。

于是我们就从去年密谋到现在,决定正式推出一个硬核项目《Happy-LLM》——一个大模型从理论到实践的系统性教程,希望通过这个项目真正帮助大家深入理解大语言模型的原理和训练过程。

项目简介

本项目是一个系统性的 LLM 学习教程,将从 NLP 的基本研究方法出发,根据 LLM 的思路及原理逐层深入,依次为读者剖析 LLM 的架构基础和训练过程。同时,我们会结合目前 LLM 领域最主流的代码框架,演练如何亲手搭建、训练一个 LLM,期以实现授之以鱼,更授之以渔。希望大家能从这个项目开始走入 LLM 的浩瀚世界,探索 LLM 的无尽可能。

在这个项目中你将获得:

  • 🔍 深入理解 Transformer 架构和注意力机制
  • 📚 掌握 预训练语言模型的基本原理
  • 🧠 了解 现有大模型的基本结构
  • 🏗️ 动手实现 一个完整的 LLaMA2 模型
  • ⚙️ 掌握训练 从预训练到微调的全流程
  • 🚀 实战应用 RAG、Agent 等前沿技术

开源地址: https://github.com/datawhalec...

图1.项目主页

项目受众

本项目适合大学生、研究人员、LLM 爱好者。

在学习本项目之前,建议具备一定的编程经验,尤其是要对 Python 编程语言有一定的了解。最好具备深度学习的相关知识,并了解 NLP 领域的相关概念和术语,以便更轻松地学习本项目。

学习指南

本项目分为两部分——基础知识与实战应用。

图2.项目目录

第1章~第4章是基础知识部分,从浅入深介绍 LLM 的基本原理。

  • 第1章:简单介绍 NLP 的基本任务和发展,为非 NLP 领域研究者提供参考
  • 第2章:介绍 LLM 的基本架构——Transformer,包括原理介绍及代码实现,作为 LLM 最重要的理论基础;
  • 第3章:整体介绍经典的 PLM,包括 Encoder-Only、Encoder-Decoder 和 Decoder-Only 三种架构,也同时介绍了当前一些主流 LLM 的架构和思想;
  • 第4章则正式进入 LLM 部分,详细介绍 LLM 的特点、能力和整体训练过程。

第5章~第7章是实战应用部分,将逐步带领大家深入 LLM 的底层细节。

  • 第5章:将带领大家者基于 PyTorch 层亲手搭建一个 LLM,并实现预训练、有监督微调的全流程;
  • 第6章:将引入目前业界主流的 LLM 训练框架 Transformers,带领学习者基于该框架快速、高效地实现 LLM 训练过程;
  • 第7章:将介绍 基于 LLM 的各种应用,补全学习者对 LLM 体系的认知,包括 LLM 的评测、检索增强生产(Retrieval-Augmented Generation,RAG)、智能体(Agent)的思想和简单实现。

在阅读本项目的过程中,建议你将理论和实际相结合。LLM 是一个快速发展、注重实践的领域,我们建议你多投入实战,复现本项目提供的各种代码,同时积极参加 LLM 相关的项目与比赛,真正投入到 LLM 开发的浪潮中。我们鼓励你关注 Datawhale 及其他 LLM 相关开源社区,当遇到问题时,你可以随时在本项目的 issue 区提问。

文章最后

最后,欢迎每一位读者在学习完本项目后加入到 LLM 开发者的行列。

星火点点,汇聚成海。我们希望成为 LLM 与普罗大众的阶梯,以自由、平等的开源精神,拥抱更恢弘而辽阔的 LLM 世界。

开源贡献,在看↓


Datawhale
61 声望12 粉丝

Datawhale 是一个专注于 AI 领域的开源组织,致力于构建一个纯粹的学习圈子,帮助学习者更好地成长。我们专注于机器学习,深度学习,编程和数学等AI领域内容的产出与学习。