Hugging Face Accelerate 两个后端的故事:FSDP 与 DeepSpeed

2024-06-27
阅读 4 分钟
927
社区中有两个流行的 零冗余优化器(Zero Redundancy Optimizer,ZeRO) 算法实现,一个来自 DeepSpeed,另一个来自 PyTorch。Hugging Face Accelerate 对这两者都进行了集成并通过接口暴露出来,以供最终用户在训练/微调模型时自主选择其中之一。本文重点介绍了 Accelerate 对外暴露的这两个后端之间的差异。为了让用户...
封面图

更难、更好、更快、更强:LLM Leaderboard v2 现已发布

2024-06-27
阅读 7 分钟
1.4k
评估和比较大语言模型 (LLMs) 是一项艰巨的任务。我们 RLHF 团队在一年前就意识到了这一点,当时他们试图复现和比较多个已发布模型的结果。这几乎是不可能完成的任务:论文或营销发布中的得分缺乏可复现的代码,有时令人怀疑,大多数情况下只是通过优化的提示或评估设置来尽量提升模型表现。因此,他们决定创建一个地方...
封面图

英特尔 Gaudi 加速辅助生成

2024-06-26
阅读 2 分钟
758
随着模型规模的增长,生成式人工智能的实现需要大量的推理资源。这不仅增加了每次生成的成本,而且还增加了用于满足此类请求的功耗。因此,文本生成的推理优化对于降低延迟、基础设施成本以及功耗都至关重要,其可以改善用户体验并提高文本生成任务的效率。
封面图

TGI 基准测试

2024-06-25
阅读 5 分钟
1.2k
本文主要探讨 TGI 的小兄弟 - TGI 基准测试工具。它能帮助我们超越简单的吞吐量指标,对 TGI 进行更全面的性能剖析,以更好地了解如何根据实际需求对服务进行调优并按需作出最佳的权衡及决策。如果你曾觉得 LLM 服务部署成本太高,或者你想对部署进行调优,那么本文很适合你!
封面图

高斯喷溅|Hugging Face 3D 机器学习课

2024-06-23
阅读 1 分钟
773
[链接]🤗 3D 机器学习课程上线🎉在本课程中,你将学习到:当前 3D 机器学习的总体情况近期发展的重要性如何自己动手制作生成式 3D 演示课程当前有 4 个短视频。由 Hugging Face 机器学习工程师 Dylan Ebert 制作和讲解。如果你有任何问题🙋或者想要参与其他关于 3D 的内容和工作,欢迎联系我们!

什么是 3D|Hugging Face 3D 机器学习课

2024-06-23
阅读 1 分钟
634
[链接]🤗 3D 机器学习课程上线🎉在本课程中,你将学习到:当前 3D 机器学习的总体情况近期发展的重要性如何自己动手制作生成式 3D 演示课程当前有4个短视频。由Hugging Face 机器学习工程师 Dylan Ebert 制作和讲解。如果你有任何问题🙋或者想要参与其他关于 3D 的内容和工作,欢迎联系我们!

多视图扩散模型 |Hugging Face 3D 机器学习课

2024-06-23
阅读 1 分钟
693
[链接]🤗 3D 机器学习课程上线🎉在本课程中,你将学习到:当前 3D 机器学习的总体情况近期发展的重要性如何自己动手制作生成式 3D 演示课程当前有 4 个短视频。由 Hugging Face 机器学习工程师 Dylan Ebert 制作和讲解。如果你有任何问题🙋或者想要参与其他关于 3D 的内容和工作,欢迎联系我们!

简介|Hugging Face 3D 机器学习课

2024-06-23
阅读 1 分钟
623
[链接]🤗 3D 机器学习课程上线🎉在本课程中,你将学习到:当前 3D 机器学习的总体情况近期发展的重要性如何自己动手制作生成式 3D 演示课程当前有4个短视频。由Hugging Face 机器学习工程师 Dylan Ebert 制作和讲解。如果你有任何问题🙋或者想要参与其他关于 3D 的内容和工作,欢迎联系我们!
封面图

将强化学习重新引入 RLHF

2024-06-19
阅读 13 分钟
1.2k
我们很高兴在 TRL 中介绍 RLOO (REINFORCE Leave One-Out) 训练器。作为一种替代 PPO 的方法,RLOO 是一种新的在线 RLHF 训练算法,旨在使其更易于访问和实施。特别是, RLOO 需要的 GPU 内存更少,并且达到收敛所需的挂钟时间也更短。如下面的图表所示:
封面图

欢迎 Stable Diffusion 3 加入 🧨 Diffusers

2024-06-17
阅读 7 分钟
1.5k
作为 Stability AI 的 Stable Diffusion 家族最新的模型,Stable Diffusion 3 (SD3) 现已登陆 Hugging Face Hub,并且可用在 🧨 Diffusers 中使用了。
封面图

用 KV 缓存量化解锁长文本生成

2024-06-12
阅读 7 分钟
1.2k
太长不看版: KV 缓存量化可在最小化对生成质量的影响的条件下,减少 LLM 在长文本生成场景下的内存使用量,从而在内存效率和生成速度之间提供可定制的权衡。
封面图

用 Sentence Transformers v3 训练和微调嵌入模型

2024-06-07
阅读 15 分钟
3.4k
Sentence Transformers 是一个 Python 库,用于使用和训练各种应用的嵌入模型,例如检索增强生成 (RAG)、语义搜索、语义文本相似度、释义挖掘 (paraphrase mining) 等等。其 3.0 版本的更新是该工程自创建以来最大的一次,引入了一种新的训练方法。在这篇博客中,我将向你展示如何使用它来微调 Sentence Transformer 模...
封面图

使用 Hugging Face 推理终端搭建强大的“语音识别 + 说话人分割 + 投机解码”工作流

2024-06-06
阅读 6 分钟
1.3k
Whisper 是当前最先进的开源语音识别模型之一,毫无疑问,也是应用最广泛的模型。如果你想部署 Whisper 模型,Hugging Face 推理终端 能够让你开箱即用地轻松部署任何 Whisper 模型。但是,如果你还想叠加其它功能,如用于分辨不同说话人的说话人分割,或用于投机解码的辅助生成,事情就有点麻烦了。因为此时你需要将 Wh...
封面图

Hugging Face x LangChain: 全新 LangChain 合作伙伴包

2024-05-29
阅读 4 分钟
1.5k
我们很高兴官宣发布 langchain_huggingface ,这是一个由 Hugging Face 和 LangChain 共同维护的 LangChain 合作伙伴包。这个新的 Python 包旨在将 Hugging Face 最新功能引入 LangChain 并保持同步。
封面图

授权调用: 介绍 Transformers 智能体 2.0

2024-05-27
阅读 12 分钟
1.2k
简要概述我们推出了 Transformers 智能体 2.0!⇒ 🎁 在现有智能体类型的基础上,我们新增了两种能够 根据历史观察解决复杂任务的智能体。⇒ 💡 我们致力于让代码 清晰、模块化,并确保最终提示和工具等通用属性透明化。⇒ 🤝 我们加入了 分享功能,以促进社区智能体的发展。⇒ 💪 全新的智能体框架性能卓越,使得 Llama-3-70B-I...
封面图

利用英特尔 Gaudi 2 和至强 CPU 构建经济高效的企业级 RAG 应用

2024-05-24
阅读 6 分钟
1.3k
检索增强生成 (Retrieval Augmented Generation,RAG) 可将存储在外部数据库中的新鲜领域知识纳入大语言模型以增强其文本生成能力。其提供了一种将公司数据与训练期间语言模型学到的知识分开的方式,有助于我们在性能、准确性及安全隐私之间进行有效折衷。
封面图

Hugging Face ZeroGPU 计划正式发布—提供价值一千万美元的免费共享 GPU

2024-05-21
阅读 2 分钟
1.7k
在人工智能技术领域,GPU 资源一直是推动研究和应用的关键因素。然而,GPU 的成本和可用性对于许多研究人员和开发者来说却是一个显著的障碍。
封面图

PaliGemma 正式发布 — Google 最新发布的前沿开放视觉语言模型

2024-05-18
阅读 9 分钟
1k
PaliGemma(Github)是一系列具有视觉和语言处理能力的模型,由 SigLIP-So400m 作为图像编码器和 Gemma-2B 作为文本解码器构成。SigLIP 是一个顶尖的模型,可以同时解析图像和文本。它的工作方式类似于 CLIP,包括图像和文本编码器的联合训练。与 PaLI-3相似,PaliGemma 模型在图像-文本数据上进行预训练后,可轻松针对...
封面图

Idefics2 简介: 为社区而生的强大 8B 视觉语言模型

2024-05-15
阅读 5 分钟
727
我们很高兴在此发布 Idefics2,这是一个通用的多模态模型,接受任意文本序列和图像序列作为输入,并据此生成文本。它可用于回答图像相关的问题、描述视觉内容、基于多幅图像创作故事、从文档中提取信息以及执行基本的算术运算。
封面图

Hugging Face 与 Wiz Research 合作提高人工智能安全性

2024-05-14
阅读 3 分钟
821
Wiz 研究人员 与 Hugging Face 就我们平台的安全性进行合作并分享了他们的发现。 Wiz 是一家云安全公司,帮助客户以安全的方式构建和维护软件。 随着这项研究的发布,我们将借此机会重点介绍一些相关的 Hugging Face 安全改进。
封面图

万事通,专精部分领域的多功能 Transformer 智能体

2024-05-13
阅读 4 分钟
663
我们很高兴分享“万事通”(Jack of All Trades,简称 JAT) 项目,该项目旨在朝着通用智能体的方向发展。该项目最初是作为对 Gato (Reed 等,2022 年) 工作的公开复现启动的,Gato 提出训练一种能够执行视觉与语言以及决策任务的 Transformer。于是我们首先构建了 Gato 数据集的开放版本。随后,我们在此基础上训练了多模态...
封面图

StarCoder2-Instruct: 完全透明和可自我对齐的代码生成

2024-05-11
阅读 4 分钟
762
指令微调 是一种技术,它能让大语言模型 (LLMs) 更好地理解和遵循人类的指令。但是,在编程任务中,大多数模型的微调都是基于人类编写的指令 (这需要很高的成本) 或者是由大型专有 LLMs 生成的指令 (可能不允许使用)。 我们推出了一个叫做 StarCoder2-15B-Instruct-v0.1 的模型,这是第一个完全自我对齐的大型代码模型,...
封面图

Ryght 在 Hugging Face 专家助力下赋能医疗保健和生命科学之旅

2024-05-07
阅读 3 分钟
703
当前,生命科学公司不断地从各种不同来源 (实验室数据、电子病历、基因组学、保险索赔、药学、临床等) 收集大量数据,并期望从中获取洞见。但他们分析这些数据的方法已经跟不上数据本身,目前典型的工作模式往往需要一个大型团队来完成从简单查询到开发有用的机器学习模型的所有工作。这一模式已无法满足药物开发、临床...
封面图

在英特尔至强 CPU 上使用 🤗 Optimum Intel 实现超快 SetFit 推理

2024-05-06
阅读 6 分钟
791
在缺少标注数据场景,SetFit 是解决的建模问题的一个有前途的解决方案,其由 Hugging Face 与 Intel 实验室 以及 UKP Lab 合作共同开发。作为一个高效的框架,SetFit 可用于对 Sentence Transformers 模型进行少样本微调。
封面图

开源医疗大模型排行榜: 健康领域大模型基准测试

2024-04-30
阅读 5 分钟
944
多年来,大型语言模型 (LLMs) 已经发展成为一项具有巨大潜力,能够彻底改变医疗行业各个方面的开创性技术。这些模型,如 GPT-3,GPT-4 和 Med-PaLM 2,在理解和生成类人文本方面表现出了卓越的能力,使它们成为处理复杂医疗任务和改善病人护理的宝贵工具。它们在多种医疗应用中显示出巨大的前景,如医疗问答 (QA) 、对话...
封面图

视觉语言模型详解

2024-04-29
阅读 7 分钟
1.4k
视觉语言模型可以同时从图像和文本中学习,因此可用于视觉问答、图像描述等多种任务。本文,我们将带大家一览视觉语言模型领域: 作个概述、了解其工作原理、搞清楚如何找到真命天“模”、如何对其进行推理以及如何使用最新版的 trl 轻松对其进行微调。
封面图

使用 Gradio 的“热重载”模式快速开发 AI 应用

2024-04-24
阅读 4 分钟
763
在这篇文章中,我将展示如何利用 Gradio 的热重载模式快速构建一个功能齐全的 AI 应用。但在进入正题之前,让我们先了解一下什么是重载模式以及 Gradio 为什么要采用自定义的自动重载逻辑。如果您已熟悉 Gradio 并急于开始构建,请直接跳转到第三部分构建文档分析应用。
封面图

欢迎 Llama 3:Meta 的新一代开源大语言模型

2024-04-23
阅读 7 分钟
926
Meta 公司的 Llama 3 是开放获取的 Llama 系列的最新版本,现已在 Hugging Face 平台发布。看到 Meta 持续致力于开放 AI 领域的发展令人振奋,我们也非常高兴地全力支持此次发布,并实现了与 Hugging Face 生态系统的深度集成。
封面图

Hugging Face Transformers 萌新完全指南

2024-04-17
阅读 6 分钟
934
欢迎阅读《Hugging Face Transformers 萌新完全指南》,本指南面向那些意欲了解有关如何使用开源 ML 的基本知识的人群。我们的目标是揭开 Hugging Face Transformers 的神秘面纱及其工作原理,这么做不是为了把读者变成机器学习从业者,而是让为了让读者更好地理解 transformers 从而能够更好地利用它。同时,我们深知实...
封面图

笔记本电脑上的聊天机器人: 在英特尔 Meteor Lake 上运行 Phi-2

2024-04-16
阅读 5 分钟
672
对应于其强大的能力,大语言模型 (LLM) 需要强大的算力支撑,而个人计算机上很难满足这一需求。因此,我们别无选择,只能将它们部署至由本地或云端托管的性能强大的定制 AI 服务器上。
封面图