在 Hub 上使用 Presidio 进行自动 PII 检测实验

7 月 31 日
阅读 2 分钟
222
我们在 Hugging Face Hub 上托管的机器学习 (ML) 数据集中发现了一个引人关注的现象: 包含个人未经记录的私密信息。这一现象为机器学习从业者带来了一些特殊挑战。
封面图

Llama 3.1 - 405B、70B 和 8B 的多语言与长上下文能力解析

7 月 26 日
阅读 17 分钟
256
Llama 3.1 发布了!今天我们迎来了 Llama 家族的新成员 Llama 3.1 进入 Hugging Face 平台。我们很高兴与 Meta 合作,确保在 Hugging Face 生态系统中实现最佳集成。Hub 上现有八个开源权重模型 (3 个基础模型和 5 个微调模型)。
封面图

在英特尔 Gaudi 2 上加速蛋白质语言模型 ProtST

7 月 25 日
阅读 2 分钟
160
蛋白质语言模型 (Protein Language Models, PLM) 已成为蛋白质结构与功能预测及设计的有力工具。在 2023 年国际机器学习会议 (ICML) 上,MILA 和英特尔实验室联合发布了 ProtST 模型,该模型是个可基于文本提示设计蛋白质的多模态模型。此后,ProtST 在研究界广受好评,不到一年的时间就积累了 40 多次引用,彰显了该工...
封面图

为视觉语言多模态模型进行偏好优化

7 月 16 日
阅读 12 分钟
281
训练模型使得它能够理解并预测人类偏好是一项比较复杂的任务。诸如 SFT (Supervised finetuning) 的传统的方法一般都需要耗费较大成本,因为这些算法需要对数据打上特定的标签。而偏好优化 (Preference Optimization) 作为一种替代选项,通常可以简化这一过程,并产出更准确的结果。通过对候选回答的对比和排序,而不是...
封面图

微调 Florence-2 - 微软的尖端视觉语言模型

7 月 15 日
阅读 6 分钟
215
Florence-2 是微软于 2024 年 6 月发布的一个基础视觉语言模型。该模型极具吸引力,因为它尺寸很小 (0.2B 及 0.7B) 且在各种计算机视觉和视觉语言任务上表现出色。
封面图

GAIA: 一个严苛的智能体基准

7 月 9 日
阅读 5 分钟
179
经过一些实验,我们对 Transformers 智能体构建智能体系统的性能印象深刻,因此我们想看看它有多好!我们使用一个 用库构建的代码智能体 在 GAIA 基准上进行测试,这可以说是最困难、最全面的智能体基准测试……最终我们取得了第一名的成绩!
封面图

Hugging Face 全球政策负责人首次参加WAIC 2024 前沿 AI 安全和治理论坛

7 月 4 日
阅读 1 分钟
303
Hugging Face 全球政策负责人艾琳-索莱曼 ( Irene Solaiman )将参加7月5日在上海举办的WAIC-前沿人工智能安全和治理论坛,并在现场进行主旨演讲和参加圆桌讨论。具体时间信息如下:
封面图

Cosmopedia: 如何为预训练构建大规模合成数据集

7 月 3 日
阅读 8 分钟
350
本文概述了我们在生成含数十亿词元的合成数据集以复现 Phi-1.5 过程中所遇到的挑战及其解决方案,由此最终创建了 Cosmopedia 合成数据集。合成数据已成为机器学习社区的 C 位话题,其题中之义是用人工 (如使用大语言模型 (LLM)) 生成的数据模拟真实数据。

OpenBMB × Hugging Face × THUNLP,联袂献上经典大模型课

7 月 3 日
阅读 1 分钟
181
这个夏天,THUNLP 携手 Hugging Face 和 OpenBMB,推出 大模型公开课第二季。在大模型公开课第二季中,将有全球知名开源社区 OpenBMB X Hugging Face 梦幻联动;MiniCPM、ChatDev、Ultra对齐 等明星开源项目作者亲自授课,带领同学从深度学习开始快速了解大模型的相关理论并进行实践。
封面图

BigCodeBench: 继 HumanEval 之后的新一代代码生成测试基准

7 月 1 日
阅读 7 分钟
335
HumanEval 是一个用于评估大型语言模型 (LLM) 在代码生成任务中的参考基准,因为它使得对紧凑的函数级代码片段的评估变得容易。然而,关于其在评估 LLM 编程能力方面的有效性越来越多的担忧,主要问题是HumanEval 中的任务太简单,可能不能代表真实世界的编程任务。相比于 HumanEval 中的算法导向任务,真实世界的软件开...
封面图

Google 发布最新开放大语言模型 Gemma 2,现已登陆 Hugging Face Hub

6 月 28 日
阅读 5 分钟
319
Google 发布了最新的开放大语言模型 Gemma 2,我们非常高兴与 Google 合作,确保其在 Hugging Face 生态系统中的最佳集成。你可以在 Hub 上找到 4 个开源模型(2 个基础模型和 2 个微调模型)。发布的功能和集成包括:
封面图

Hugging Face Accelerate 两个后端的故事:FSDP 与 DeepSpeed

6 月 27 日
阅读 4 分钟
250
社区中有两个流行的 零冗余优化器(Zero Redundancy Optimizer,ZeRO) 算法实现,一个来自 DeepSpeed,另一个来自 PyTorch。Hugging Face Accelerate 对这两者都进行了集成并通过接口暴露出来,以供最终用户在训练/微调模型时自主选择其中之一。本文重点介绍了 Accelerate 对外暴露的这两个后端之间的差异。为了让用户...
封面图

更难、更好、更快、更强:LLM Leaderboard v2 现已发布

6 月 27 日
阅读 7 分钟
365
评估和比较大语言模型 (LLMs) 是一项艰巨的任务。我们 RLHF 团队在一年前就意识到了这一点,当时他们试图复现和比较多个已发布模型的结果。这几乎是不可能完成的任务:论文或营销发布中的得分缺乏可复现的代码,有时令人怀疑,大多数情况下只是通过优化的提示或评估设置来尽量提升模型表现。因此,他们决定创建一个地方...
封面图

英特尔 Gaudi 加速辅助生成

6 月 26 日
阅读 2 分钟
270
随着模型规模的增长,生成式人工智能的实现需要大量的推理资源。这不仅增加了每次生成的成本,而且还增加了用于满足此类请求的功耗。因此,文本生成的推理优化对于降低延迟、基础设施成本以及功耗都至关重要,其可以改善用户体验并提高文本生成任务的效率。
封面图

TGI 基准测试

6 月 25 日
阅读 5 分钟
401
本文主要探讨 TGI 的小兄弟 - TGI 基准测试工具。它能帮助我们超越简单的吞吐量指标,对 TGI 进行更全面的性能剖析,以更好地了解如何根据实际需求对服务进行调优并按需作出最佳的权衡及决策。如果你曾觉得 LLM 服务部署成本太高,或者你想对部署进行调优,那么本文很适合你!
封面图

高斯喷溅|Hugging Face 3D 机器学习课

6 月 23 日
阅读 1 分钟
348
[链接]🤗 3D 机器学习课程上线🎉在本课程中,你将学习到:当前 3D 机器学习的总体情况近期发展的重要性如何自己动手制作生成式 3D 演示课程当前有 4 个短视频。由 Hugging Face 机器学习工程师 Dylan Ebert 制作和讲解。如果你有任何问题🙋或者想要参与其他关于 3D 的内容和工作,欢迎联系我们!

什么是 3D|Hugging Face 3D 机器学习课

6 月 23 日
阅读 1 分钟
308
[链接]🤗 3D 机器学习课程上线🎉在本课程中,你将学习到:当前 3D 机器学习的总体情况近期发展的重要性如何自己动手制作生成式 3D 演示课程当前有4个短视频。由Hugging Face 机器学习工程师 Dylan Ebert 制作和讲解。如果你有任何问题🙋或者想要参与其他关于 3D 的内容和工作,欢迎联系我们!

多视图扩散模型 |Hugging Face 3D 机器学习课

6 月 23 日
阅读 1 分钟
341
[链接]🤗 3D 机器学习课程上线🎉在本课程中,你将学习到:当前 3D 机器学习的总体情况近期发展的重要性如何自己动手制作生成式 3D 演示课程当前有 4 个短视频。由 Hugging Face 机器学习工程师 Dylan Ebert 制作和讲解。如果你有任何问题🙋或者想要参与其他关于 3D 的内容和工作,欢迎联系我们!

简介|Hugging Face 3D 机器学习课

6 月 23 日
阅读 1 分钟
286
[链接]🤗 3D 机器学习课程上线🎉在本课程中,你将学习到:当前 3D 机器学习的总体情况近期发展的重要性如何自己动手制作生成式 3D 演示课程当前有4个短视频。由Hugging Face 机器学习工程师 Dylan Ebert 制作和讲解。如果你有任何问题🙋或者想要参与其他关于 3D 的内容和工作,欢迎联系我们!
封面图

将强化学习重新引入 RLHF

6 月 19 日
阅读 13 分钟
528
我们很高兴在 TRL 中介绍 RLOO (REINFORCE Leave One-Out) 训练器。作为一种替代 PPO 的方法,RLOO 是一种新的在线 RLHF 训练算法,旨在使其更易于访问和实施。特别是, RLOO 需要的 GPU 内存更少,并且达到收敛所需的挂钟时间也更短。如下面的图表所示:
封面图

欢迎 Stable Diffusion 3 加入 🧨 Diffusers

6 月 17 日
阅读 7 分钟
563
作为 Stability AI 的 Stable Diffusion 家族最新的模型,Stable Diffusion 3 (SD3) 现已登陆 Hugging Face Hub,并且可用在 🧨 Diffusers 中使用了。
封面图

用 KV 缓存量化解锁长文本生成

6 月 12 日
阅读 7 分钟
501
太长不看版: KV 缓存量化可在最小化对生成质量的影响的条件下,减少 LLM 在长文本生成场景下的内存使用量,从而在内存效率和生成速度之间提供可定制的权衡。
封面图

用 Sentence Transformers v3 训练和微调嵌入模型

6 月 7 日
阅读 15 分钟
669
Sentence Transformers 是一个 Python 库,用于使用和训练各种应用的嵌入模型,例如检索增强生成 (RAG)、语义搜索、语义文本相似度、释义挖掘 (paraphrase mining) 等等。其 3.0 版本的更新是该工程自创建以来最大的一次,引入了一种新的训练方法。在这篇博客中,我将向你展示如何使用它来微调 Sentence Transformer 模...
封面图

使用 Hugging Face 推理终端搭建强大的“语音识别 + 说话人分割 + 投机解码”工作流

6 月 6 日
阅读 6 分钟
619
Whisper 是当前最先进的开源语音识别模型之一,毫无疑问,也是应用最广泛的模型。如果你想部署 Whisper 模型,Hugging Face 推理终端 能够让你开箱即用地轻松部署任何 Whisper 模型。但是,如果你还想叠加其它功能,如用于分辨不同说话人的说话人分割,或用于投机解码的辅助生成,事情就有点麻烦了。因为此时你需要将 Wh...
封面图

Hugging Face x LangChain: 全新 LangChain 合作伙伴包

5 月 29 日
阅读 4 分钟
532
我们很高兴官宣发布 langchain_huggingface ,这是一个由 Hugging Face 和 LangChain 共同维护的 LangChain 合作伙伴包。这个新的 Python 包旨在将 Hugging Face 最新功能引入 LangChain 并保持同步。
封面图

授权调用: 介绍 Transformers 智能体 2.0

5 月 27 日
阅读 12 分钟
481
简要概述我们推出了 Transformers 智能体 2.0!⇒ 🎁 在现有智能体类型的基础上,我们新增了两种能够 根据历史观察解决复杂任务的智能体。⇒ 💡 我们致力于让代码 清晰、模块化,并确保最终提示和工具等通用属性透明化。⇒ 🤝 我们加入了 分享功能,以促进社区智能体的发展。⇒ 💪 全新的智能体框架性能卓越,使得 Llama-3-70B-I...
封面图

利用英特尔 Gaudi 2 和至强 CPU 构建经济高效的企业级 RAG 应用

5 月 24 日
阅读 6 分钟
408
检索增强生成 (Retrieval Augmented Generation,RAG) 可将存储在外部数据库中的新鲜领域知识纳入大语言模型以增强其文本生成能力。其提供了一种将公司数据与训练期间语言模型学到的知识分开的方式,有助于我们在性能、准确性及安全隐私之间进行有效折衷。
封面图

Hugging Face ZeroGPU 计划正式发布—提供价值一千万美元的免费共享 GPU

5 月 21 日
阅读 2 分钟
691
在人工智能技术领域,GPU 资源一直是推动研究和应用的关键因素。然而,GPU 的成本和可用性对于许多研究人员和开发者来说却是一个显著的障碍。
封面图

PaliGemma 正式发布 — Google 最新发布的前沿开放视觉语言模型

5 月 18 日
阅读 9 分钟
371
PaliGemma(Github)是一系列具有视觉和语言处理能力的模型,由 SigLIP-So400m 作为图像编码器和 Gemma-2B 作为文本解码器构成。SigLIP 是一个顶尖的模型,可以同时解析图像和文本。它的工作方式类似于 CLIP,包括图像和文本编码器的联合训练。与 PaLI-3相似,PaliGemma 模型在图像-文本数据上进行预训练后,可轻松针对...
封面图

Idefics2 简介: 为社区而生的强大 8B 视觉语言模型

5 月 15 日
阅读 5 分钟
187
我们很高兴在此发布 Idefics2,这是一个通用的多模态模型,接受任意文本序列和图像序列作为输入,并据此生成文本。它可用于回答图像相关的问题、描述视觉内容、基于多幅图像创作故事、从文档中提取信息以及执行基本的算术运算。
封面图