使用 DPO 微调 Llama 2

2023-08-22
阅读 5 分钟
833
基于人类反馈的强化学习 (Reinforcement Learning from Human Feedback,RLHF) 事实上已成为 GPT-4 或 Claude 等 LLM 训练的最后一步,它可以确保语言模型的输出符合人类在闲聊或安全性等方面的期望。然而,它也给 NLP 引入了一些 RL 相关的复杂性: 既要构建一个好的奖励函数,并训练一个模型用以估计每个状态的价值 (va...
封面图

Hugging News #0821: 新的里程碑:一百万个代码仓库!

2023-08-22
阅读 3 分钟
705
每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」。本期 Hugging News 有哪些有趣的消息,快来看看吧! 🎉😍
封面图

手把手教你使用人工智能生成游戏 3D 素材

2023-08-19
阅读 3 分钟
1.1k
生成式 AI 已成为游戏开发中艺术工作流的重要组成部分。然而,正如我在 之前的文章 中描述的,从文本到 3D 的实用性仍落后于 2D。不过,这种情况正在改变。本文我们将重新审视 3D 素材生成的实用工作流程,并逐步了解如何将生成型 AI 集成到 PS1 风格的 3D 工作流中。
封面图

条提示词等同于多少个数据点?

2023-08-17
阅读 5 分钟
423
数据点(data points)通常用于描述单个信息单位或观测值,在本文中,它被用来量化“提示词”方法相对于传统方法的效率和效果。文章比较了两种训练(微调)机器学习模型的方法:一种是使用提示 (prompts),本文也称之“提示词”,另一种是使用传统的分类器头 (classifier heads),本文也称之为“分类头”。通过比较可以发现,...
封面图

关于 Llama 2 的一切资源,我们都帮你整理好了

2023-08-17
阅读 3 分钟
475
Llama 2 是一个由 Meta 开发的大型语言模型,是 LLaMA 1 的继任者。Llama 2 可通过 AWS、Hugging Face 获取,并可以自由用于研究和商业用途。Llama 2 预训练模型在 2 万亿个标记上进行训练,相比 LLaMA 1 的上下文长度增加了一倍。它的微调模型则在超过 100 万个人工标注数据下完成。

Hugging News #0814: Llama 2 学习资源大汇总 🦙

2023-08-15
阅读 5 分钟
427
每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」。本期 Hugging News 有哪些有趣的消息,快来看看吧! 🎉😍
封面图

TRL 正式推出,来训练你的首个 RLHF 模型吧!

2023-08-10
阅读 1 分钟
442
我们正式向大家介绍 TRL——Transformer Reinforcement Learning。这是一个超全面的全栈库,包含了一整套工具用于使用强化学习 (Reinforcement Learning) 训练 transformer 语言模型。从监督调优 (Supervised Fine-tuning step, SFT),到训练奖励模型 (Reward Modeling),再到近端策略优化 (Proximal Policy Optimization)...

Hugging Face 的文本生成和大语言模型的开源生态

2023-08-09
阅读 5 分钟
335
文本生成和对话技术已经出现多年了。早期的挑战在于通过设置参数和分辨偏差,同时控制好文本忠实性和多样性。更忠实的输出一般更缺少创造性,并且和原始训练数据更加接近,也更不像人话。最近的研究克服了这些困难,并且友好的交互页面能让每个人尝试这些模型。如 ChatGPT 的服务,已经把亮点放在强大的模型如 GPT-4,并...
封面图

社区活动 | “中文 AI 微小说大赛”正式开启报名!

2023-08-08
阅读 1 分钟
239
🤖️ 我们要求每位参赛选手以 LLM (大语言模型)为工具,将 AI 的能力与选手的创作才华相结合,创造出引人入胜、感人至深或充满疯狂的微小说!

Hugging News #0807: ChatUI 官方 Docker 模板发布、🤗 Hub 和开源生态介绍视频来啦!

2023-08-08
阅读 4 分钟
261
每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」。本期 Hugging News 有哪些有趣的消息,快来看看吧! 🎉😍重磅更新🤗 ChatUI:官方 Docker 模板发布,一键部署自己的聊天应用!
封面图

【不要】重复自己*——如何为现代机器学习设计开源库

2023-08-04
阅读 4 分钟
248
“不要重复自己 (Don’t Repeat Yourself)” ,或 DRY,是广为人知的软件开发原则。该原则出自《程序员修炼之道: 从小工到专家》 (英文名为 The pragmatic programmer),这是代码设计领域迄今为止阅读量最大的一本书。该原则言简意赅,即: 重用而不要重写其他地方已有的逻辑。这可以确保代码保持同步,使其更易于维护且更健...
封面图

使用 Habana Gaudi2 加速视觉语言模型 BridgeTower

2023-08-03
阅读 7 分钟
206
在对最先进的视觉语言模型 BridgeTower 进行微调时,使用 Optimum Habana v1.6, Habana Gaudi2 可以达到 近 3 倍于 A100 的速度。硬件加速的数据加载以及 fast DDP 这两个新特性对性能提高贡献最大。
封面图

更快的训练和推理: 对比 Habana Gaudi®2 和英伟达 A100 80GB

2023-08-02
阅读 4 分钟
297
通过本文,你将学习如何使用 Habana® Gaudi®2 加速模型训练和推理,以及如何使用 🤗 Optimum Habana 训练更大的模型。然后,我们展示了几个基准测例,包括 BERT 预训练、Stable Diffusion 推理以及 T5-3B 微调,以评估 Gaudi1、Gaudi2 和英伟达 A100 80GB 之间的性能差异。剧透一下: Gaudi2 的训练和推理速度大约是英伟达...
封面图

基于 Habana Gaudi 的 Transformers 入门

2023-08-01
阅读 4 分钟
310
与最新的基于 GPU 的 Amazon Web Services (AWS) EC2 实例相比,Habana Gaudi 加速卡在训练机器学习模型方面的性价比提高了 40%。我们非常高兴将这种性价比优势引入 Transformers 🚀。
封面图

Hugging News #0731: 新课程重磅发布、用户交流群邀请你加入、真实图像编辑方法 LEDTIS 来啦!

2023-07-31
阅读 4 分钟
287
每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」。本期 Hugging News 有哪些有趣的消息,快来看看吧! 🎉 😍
封面图

号外号外!首届开源 AI 游戏挑战赛圆满结束!

2023-07-28
阅读 5 分钟
168
北京时间 7 月 8 日到 7 月 10 日, 我们举办了 首届开源 AI 游戏开发挑战赛。这是一场激动人心的赛事活动,游戏开发者在紧迫的 48 小时内使用 AI 创造、创新有创意的游戏。
封面图

重磅 | Hugging Face 第一本中文图书正式出版!

2023-07-27
阅读 1 分钟
292
Hugging Face 为机器学习从业者们提供了一个协作和交流的平台,你可以在 Hugging Face Hub 上开源自己的机器学习模型、数据集或者创建机器学习应用等,Hugging Face 还提供了一系列的开源库,涉及到机器学习中的方方面面。
封面图

Diffusers 一岁啦 !

2023-07-26
阅读 7 分钟
241
十分高兴 🤗 Diffusers 迎来它的一岁生日!这是令人激动的一年,感谢社区和开源贡献者,我们对我们的工作感到十分骄傲和自豪。去年,文本到图像的模型,如 DALL-E 2, Imagen, 和 Stable Diffusion 以其从文本生成逼真的图像的能力,吸引了全世界的关注,也带动了对生成式 AI 的大量兴趣和开发工作。但是这些强大的工作不...
封面图

Llama 2 来袭 - 在 Hugging Face 上玩转它

2023-07-25
阅读 5 分钟
522
今天,Meta 发布了 Llama 2,其包含了一系列最先进的开放大语言模型,我们很高兴能够将其全面集成入 Hugging Face,并全力支持其发布。 Llama 2 的社区许可证相当宽松,且可商用。其代码、预训练模型和微调模型均于今天发布了🔥。
封面图

Hugging News #0724: Llama 2 登陆 Hugging Face、AI 开源游戏竞赛获奖选手公布!

2023-07-24
阅读 3 分钟
177
每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」。本期 Hugging News 有哪些有趣的消息,快来看看吧! 🎉😍
封面图

用 Hugging Face 推理端点部署 LLM

2023-07-21
阅读 5 分钟
581
开源的 LLM,如 Falcon、(Open-)LLaMA、X-Gen、StarCoder 或 RedPajama,近几个月来取得了长足的进展,能够在某些用例中与闭源模型如 ChatGPT 或 GPT4 竞争。然而,有效且优化地部署这些模型仍然是一个挑战。
封面图

BigCode 背后的大规模数据去重

2023-07-20
阅读 12 分钟
380
老话说得好: 垃圾进,垃圾出 (garbage in, garbage out),把数据处理干净再输入给模型至关重要,至少对大语言模型如此。虽然现在一些明星大模型 (严格来讲,它们很多是 API) 的存在让大家恍惚产生了数据质量好像不那么重要了的错觉,但事实绝非如此。
封面图

在英特尔 CPU 上微调 Stable Diffusion 模型

2023-07-19
阅读 9 分钟
379
扩散模型能够根据文本提示生成逼真的图像,这种能力促进了生成式人工智能的普及。人们已经开始把这些模型用在包括数据合成及内容创建在内的多个应用领域。 Hugging Face Hub 包含超过 5 千个预训练的文生图 模型。这些模型与 Diffusers 库 结合使用,使得构建图像生成工作流或者对不同的图像生成工作流进行实验变得无比...
封面图

🤗 Datasets 使用小贴士: 探索解决数据集无法下载的问题

2023-07-18
阅读 1 分钟
746
Hugging Face Hub 是强大的机器学习的数据源。相信大家在国内用 Hugging Face Datasets 都遇到过下载的问题。譬如:
封面图

🤗Hugging Face 87个 AI 游戏可以在线玩啦

2023-07-18
阅读 1 分钟
283
7月9日的开源游戏挑战赛有超过来自全球 1000 多名开发者参加 🔥一共收录了 87 个游戏 🎮目前已经进入投票期 🗳视频中的:猜名画 🖼️ 用了之前推荐的 LEDITS目前得分很高呢 👀来试试看你能猜对几幅名画?
封面图

Hugging News #0717: 开源大模型榜单更新、音频 Transformers 课程完成发布!

2023-07-17
阅读 3 分钟
542
每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」。本期 Hugging News 有哪些有趣的消息,快来看看吧! 🎉 😍
封面图

基于 NNCF 和 🤗 Optimum 面向 Intel CPU 对 Stable Diffusion 优化

2023-07-12
阅读 5 分钟
627
基于隐空间的扩散模型 (Latent Diffusion Model),是解决文本到图片生成问题上的颠覆者。Stable Diffusion 是最著名的一例,广泛应用在商业和工业。Stable Diffusion 的想法简单且有效: 从噪声向量开始,多次去噪,以使之在隐空间里逼近图片的表示。
封面图

Hugging News #0710: 体验 MusicGen、Diffusers 库发布一周年、我们的内容政策更新

2023-07-12
阅读 4 分钟
360
每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」。本期 Hugging News 有哪些有趣的消息,快来看看吧! 🎉😍
封面图

道德与社会问题简报 #4: 文生图模型中的偏见

2023-07-07
阅读 5 分钟
935
文本到图像 (TTI) 生成 现在非常流行,成千上万的 TTI 模型被上传到 Hugging Face Hub。每种模态都可能受到不同来源的偏见影响,这就引出了一个问题: 我们如何发现这些模型中的偏见?在当前的博客文章中,我们分享了我们对 TTI 系统中偏见来源的看法以及解决它们的工具和潜在解决方案,展示了我们自己的项目和来自更广泛...
封面图

基础大模型能像人类一样标注数据吗?

2023-07-06
阅读 12 分钟
888
自从 ChatGPT 出现以来,我们见证了大语言模型 (LLM) 领域前所未有的发展,尤其是对话类模型,经过微调以后可以根据给出的提示语 (prompt) 来完成相关要求和命令。然而,直到如今我们也无法对比这些大模型的性能,因为缺乏一个统一的基准,难以严谨地去测试它们各自的性能。评测我们发给它们的指令以及对话模型本身,从...