ggml 简介

2024-08-29
阅读 11 分钟
764
ggml 是一个用 C 和 C++ 编写、专注于 Transformer 架构模型推理的机器学习库。该项目完全开源,处于活跃的开发阶段,开发社区也在不断壮大。ggml 和 PyTorch、TensorFlow 等机器学习库比较相似,但由于目前处于开发的早期阶段,一些底层设计仍在不断改进中。
封面图

TGI 多-LoRA: 部署一次,搞定 30 个模型的推理服务

2024-08-12
阅读 8 分钟
746
你是否已厌倦管理多个 AI 模型所带来的复杂性和高成本? 那么, 如果你可以部署一次就搞定 30 个模型推理服务会如何? 在当今的 ML 世界中,哪些希望充分发挥其数据的价值的组织可能最终会进入一个“微调的世界”。在这个世界,各个组织会构建大量模型,其中每个模型都针对特定任务进行了高度特化。但是,如何处理为每个细...
封面图

XetHub 加入 Hugging Face!

2024-08-09
阅读 2 分钟
667
XetHub 是一家位于西雅图的公司,由 Yucheng Low、Ajit Banerjee 和 Rajat Arya 创立,他们之前在 Apple 工作,构建和扩展了 Apple 的内部机器学习基础设施。XetHub 的使命是为 AI 开发提供软件工程的最佳实践。XetHub 开发了技术,能够使 Git 扩展到 TB 级别的存储库,并使团队能够探索、理解和共同处理大型不断变化的...
封面图

NuminaMath 是如何荣膺首届 AIMO 进步奖的?

2024-08-09
阅读 8 分钟
686
今年,Numina 和 Hugging Face 合作角逐 AI 数学奥林匹克 (AI Math Olympiad,AIMO) 的首届进步奖。此次比赛旨在对开放 LLM 进行微调,以使其能解决高中难度的国际数学奥林匹克训练题。我们很高兴向大家报告: 我们的模型 - NuminaMath 7B TIR - 在比赛中脱颖而出,成功解决了私有测试集 50 道题中的 29 道🥳!
封面图

SmolLM: 一个超快速、超高性能的小模型集合

2024-08-03
阅读 7 分钟
717
本文将介绍 SmolLM。它集合了一系列最尖端的 135M、360M、1.7B 参数量的小模型,这些模型均在一个全新的高质量数据集上训练。本文将介绍数据整理、模型评测、使用方法等相关过程。
封面图

Google 最新发布: Gemma 2 2B、ShieldGemma 和 Gemma Scope

2024-08-03
阅读 8 分钟
1.4k
在发布 Gemma 2 一个月后,Google 扩展了其 Gemma 模型系列,新增了以下几款:Gemma 2 2B - 这是 Gemma 2 的 2.6B 参数版本,是设备端使用的理想选择。ShieldGemma - 一系列安全分类器,基于 Gemma 2 训练,用于开发者过滤其应用程序的输入和输出。Gemma Scope - 一个全面的、开放的稀疏自动编码器套件,适用于 Gemma 2 ...
封面图

在 Hub 上使用 Presidio 进行自动 PII 检测实验

2024-07-31
阅读 2 分钟
471
我们在 Hugging Face Hub 上托管的机器学习 (ML) 数据集中发现了一个引人关注的现象: 包含个人未经记录的私密信息。这一现象为机器学习从业者带来了一些特殊挑战。
封面图

Llama 3.1 - 405B、70B 和 8B 的多语言与长上下文能力解析

2024-07-26
阅读 17 分钟
751
Llama 3.1 发布了!今天我们迎来了 Llama 家族的新成员 Llama 3.1 进入 Hugging Face 平台。我们很高兴与 Meta 合作,确保在 Hugging Face 生态系统中实现最佳集成。Hub 上现有八个开源权重模型 (3 个基础模型和 5 个微调模型)。
封面图

在英特尔 Gaudi 2 上加速蛋白质语言模型 ProtST

2024-07-25
阅读 2 分钟
413
蛋白质语言模型 (Protein Language Models, PLM) 已成为蛋白质结构与功能预测及设计的有力工具。在 2023 年国际机器学习会议 (ICML) 上,MILA 和英特尔实验室联合发布了 ProtST 模型,该模型是个可基于文本提示设计蛋白质的多模态模型。此后,ProtST 在研究界广受好评,不到一年的时间就积累了 40 多次引用,彰显了该工...
封面图

为视觉语言多模态模型进行偏好优化

2024-07-16
阅读 12 分钟
584
训练模型使得它能够理解并预测人类偏好是一项比较复杂的任务。诸如 SFT (Supervised finetuning) 的传统的方法一般都需要耗费较大成本,因为这些算法需要对数据打上特定的标签。而偏好优化 (Preference Optimization) 作为一种替代选项,通常可以简化这一过程,并产出更准确的结果。通过对候选回答的对比和排序,而不是...
封面图

微调 Florence-2 - 微软的尖端视觉语言模型

2024-07-15
阅读 6 分钟
571
Florence-2 是微软于 2024 年 6 月发布的一个基础视觉语言模型。该模型极具吸引力,因为它尺寸很小 (0.2B 及 0.7B) 且在各种计算机视觉和视觉语言任务上表现出色。
封面图

GAIA: 一个严苛的智能体基准

2024-07-09
阅读 5 分钟
428
经过一些实验,我们对 Transformers 智能体构建智能体系统的性能印象深刻,因此我们想看看它有多好!我们使用一个 用库构建的代码智能体 在 GAIA 基准上进行测试,这可以说是最困难、最全面的智能体基准测试……最终我们取得了第一名的成绩!
封面图

Hugging Face 全球政策负责人首次参加WAIC 2024 前沿 AI 安全和治理论坛

2024-07-04
阅读 1 分钟
553
Hugging Face 全球政策负责人艾琳-索莱曼 ( Irene Solaiman )将参加7月5日在上海举办的WAIC-前沿人工智能安全和治理论坛,并在现场进行主旨演讲和参加圆桌讨论。具体时间信息如下:
封面图

Cosmopedia: 如何为预训练构建大规模合成数据集

2024-07-03
阅读 8 分钟
630
本文概述了我们在生成含数十亿词元的合成数据集以复现 Phi-1.5 过程中所遇到的挑战及其解决方案,由此最终创建了 Cosmopedia 合成数据集。合成数据已成为机器学习社区的 C 位话题,其题中之义是用人工 (如使用大语言模型 (LLM)) 生成的数据模拟真实数据。

OpenBMB × Hugging Face × THUNLP,联袂献上经典大模型课

2024-07-03
阅读 1 分钟
356
这个夏天,THUNLP 携手 Hugging Face 和 OpenBMB,推出 大模型公开课第二季。在大模型公开课第二季中,将有全球知名开源社区 OpenBMB X Hugging Face 梦幻联动;MiniCPM、ChatDev、Ultra对齐 等明星开源项目作者亲自授课,带领同学从深度学习开始快速了解大模型的相关理论并进行实践。
封面图

BigCodeBench: 继 HumanEval 之后的新一代代码生成测试基准

2024-07-01
阅读 7 分钟
798
HumanEval 是一个用于评估大型语言模型 (LLM) 在代码生成任务中的参考基准,因为它使得对紧凑的函数级代码片段的评估变得容易。然而,关于其在评估 LLM 编程能力方面的有效性越来越多的担忧,主要问题是HumanEval 中的任务太简单,可能不能代表真实世界的编程任务。相比于 HumanEval 中的算法导向任务,真实世界的软件开...
封面图

Google 发布最新开放大语言模型 Gemma 2,现已登陆 Hugging Face Hub

2024-06-28
阅读 5 分钟
662
Google 发布了最新的开放大语言模型 Gemma 2,我们非常高兴与 Google 合作,确保其在 Hugging Face 生态系统中的最佳集成。你可以在 Hub 上找到 4 个开源模型(2 个基础模型和 2 个微调模型)。发布的功能和集成包括:
封面图

Hugging Face Accelerate 两个后端的故事:FSDP 与 DeepSpeed

2024-06-27
阅读 4 分钟
592
社区中有两个流行的 零冗余优化器(Zero Redundancy Optimizer,ZeRO) 算法实现,一个来自 DeepSpeed,另一个来自 PyTorch。Hugging Face Accelerate 对这两者都进行了集成并通过接口暴露出来,以供最终用户在训练/微调模型时自主选择其中之一。本文重点介绍了 Accelerate 对外暴露的这两个后端之间的差异。为了让用户...
封面图

更难、更好、更快、更强:LLM Leaderboard v2 现已发布

2024-06-27
阅读 7 分钟
848
评估和比较大语言模型 (LLMs) 是一项艰巨的任务。我们 RLHF 团队在一年前就意识到了这一点,当时他们试图复现和比较多个已发布模型的结果。这几乎是不可能完成的任务:论文或营销发布中的得分缺乏可复现的代码,有时令人怀疑,大多数情况下只是通过优化的提示或评估设置来尽量提升模型表现。因此,他们决定创建一个地方...
封面图

英特尔 Gaudi 加速辅助生成

2024-06-26
阅读 2 分钟
524
随着模型规模的增长,生成式人工智能的实现需要大量的推理资源。这不仅增加了每次生成的成本,而且还增加了用于满足此类请求的功耗。因此,文本生成的推理优化对于降低延迟、基础设施成本以及功耗都至关重要,其可以改善用户体验并提高文本生成任务的效率。
封面图

TGI 基准测试

2024-06-25
阅读 5 分钟
794
本文主要探讨 TGI 的小兄弟 - TGI 基准测试工具。它能帮助我们超越简单的吞吐量指标,对 TGI 进行更全面的性能剖析,以更好地了解如何根据实际需求对服务进行调优并按需作出最佳的权衡及决策。如果你曾觉得 LLM 服务部署成本太高,或者你想对部署进行调优,那么本文很适合你!
封面图

高斯喷溅|Hugging Face 3D 机器学习课

2024-06-23
阅读 1 分钟
576
[链接]🤗 3D 机器学习课程上线🎉在本课程中,你将学习到:当前 3D 机器学习的总体情况近期发展的重要性如何自己动手制作生成式 3D 演示课程当前有 4 个短视频。由 Hugging Face 机器学习工程师 Dylan Ebert 制作和讲解。如果你有任何问题🙋或者想要参与其他关于 3D 的内容和工作,欢迎联系我们!

什么是 3D|Hugging Face 3D 机器学习课

2024-06-23
阅读 1 分钟
475
[链接]🤗 3D 机器学习课程上线🎉在本课程中,你将学习到:当前 3D 机器学习的总体情况近期发展的重要性如何自己动手制作生成式 3D 演示课程当前有4个短视频。由Hugging Face 机器学习工程师 Dylan Ebert 制作和讲解。如果你有任何问题🙋或者想要参与其他关于 3D 的内容和工作,欢迎联系我们!

多视图扩散模型 |Hugging Face 3D 机器学习课

2024-06-23
阅读 1 分钟
526
[链接]🤗 3D 机器学习课程上线🎉在本课程中,你将学习到:当前 3D 机器学习的总体情况近期发展的重要性如何自己动手制作生成式 3D 演示课程当前有 4 个短视频。由 Hugging Face 机器学习工程师 Dylan Ebert 制作和讲解。如果你有任何问题🙋或者想要参与其他关于 3D 的内容和工作,欢迎联系我们!

简介|Hugging Face 3D 机器学习课

2024-06-23
阅读 1 分钟
461
[链接]🤗 3D 机器学习课程上线🎉在本课程中,你将学习到:当前 3D 机器学习的总体情况近期发展的重要性如何自己动手制作生成式 3D 演示课程当前有4个短视频。由Hugging Face 机器学习工程师 Dylan Ebert 制作和讲解。如果你有任何问题🙋或者想要参与其他关于 3D 的内容和工作,欢迎联系我们!
封面图

将强化学习重新引入 RLHF

2024-06-19
阅读 13 分钟
922
我们很高兴在 TRL 中介绍 RLOO (REINFORCE Leave One-Out) 训练器。作为一种替代 PPO 的方法,RLOO 是一种新的在线 RLHF 训练算法,旨在使其更易于访问和实施。特别是, RLOO 需要的 GPU 内存更少,并且达到收敛所需的挂钟时间也更短。如下面的图表所示:
封面图

欢迎 Stable Diffusion 3 加入 🧨 Diffusers

2024-06-17
阅读 7 分钟
1k
作为 Stability AI 的 Stable Diffusion 家族最新的模型,Stable Diffusion 3 (SD3) 现已登陆 Hugging Face Hub,并且可用在 🧨 Diffusers 中使用了。
封面图

用 KV 缓存量化解锁长文本生成

2024-06-12
阅读 7 分钟
795
太长不看版: KV 缓存量化可在最小化对生成质量的影响的条件下,减少 LLM 在长文本生成场景下的内存使用量,从而在内存效率和生成速度之间提供可定制的权衡。
封面图

用 Sentence Transformers v3 训练和微调嵌入模型

2024-06-07
阅读 15 分钟
1.7k
Sentence Transformers 是一个 Python 库,用于使用和训练各种应用的嵌入模型,例如检索增强生成 (RAG)、语义搜索、语义文本相似度、释义挖掘 (paraphrase mining) 等等。其 3.0 版本的更新是该工程自创建以来最大的一次,引入了一种新的训练方法。在这篇博客中,我将向你展示如何使用它来微调 Sentence Transformer 模...
封面图

使用 Hugging Face 推理终端搭建强大的“语音识别 + 说话人分割 + 投机解码”工作流

2024-06-06
阅读 6 分钟
985
Whisper 是当前最先进的开源语音识别模型之一,毫无疑问,也是应用最广泛的模型。如果你想部署 Whisper 模型,Hugging Face 推理终端 能够让你开箱即用地轻松部署任何 Whisper 模型。但是,如果你还想叠加其它功能,如用于分辨不同说话人的说话人分割,或用于投机解码的辅助生成,事情就有点麻烦了。因为此时你需要将 Wh...
封面图