Hugging Face Transformers 萌新完全指南

4 月 17 日
阅读 6 分钟
11
欢迎阅读《Hugging Face Transformers 萌新完全指南》,本指南面向那些意欲了解有关如何使用开源 ML 的基本知识的人群。我们的目标是揭开 Hugging Face Transformers 的神秘面纱及其工作原理,这么做不是为了把读者变成机器学习从业者,而是让为了让读者更好地理解 transformers 从而能够更好地利用它。同时,我们深知实...
封面图

笔记本电脑上的聊天机器人: 在英特尔 Meteor Lake 上运行 Phi-2

4 月 16 日
阅读 5 分钟
12
对应于其强大的能力,大语言模型 (LLM) 需要强大的算力支撑,而个人计算机上很难满足这一需求。因此,我们别无选择,只能将它们部署至由本地或云端托管的性能强大的定制 AI 服务器上。
封面图

在 Google Cloud 上轻松部署开放大语言模型

4 月 12 日
阅读 3 分钟
14
这是 Hugging Face Hub 上的一个新功能,让开发者可以轻松地将数千个基础模型使用 Vertex AI 或 Google Kubernetes Engine (GKE) 部署到 Google Cloud。
封面图

用于显著提高检索速度和降低成本的二进制和标量嵌入量化

4 月 12 日
阅读 10 分钟
24
我们引入了嵌入量化的概念,并展示了它们对检索速度、内存使用、磁盘空间和成本的影响。我们将讨论理论上和实践中如何对嵌入进行量化,然后介绍一个 演示,展示了 4100 万维基百科文本的真实检索场景。
封面图

Quanto: PyTorch 量化工具包

4 月 9 日
阅读 5 分钟
24
量化技术通过用低精度数据类型 (如 8 位整型 (int8)) 来表示深度学习模型的权重和激活,以减少传统深度学习模型使用 32 位浮点 (float32) 表示权重和激活所带来的计算和内存开销。
封面图

为 Hugging Face 用户带来无服务器 GPU 推理服务

4 月 8 日
阅读 2 分钟
50
今天,我们非常兴奋地宣布 部署到 Cloudflare Workers AI 功能正式上线,这是 Hugging Face Hub 平台上的一项新服务,它使得通过 Cloudflare 边缘数据中心部署的先进 GPU、轻松使用开放模型作为无服务器 API 成为可能。
封面图

利用 🤗 Optimum Intel 和 fastRAG 在 CPU 上优化文本嵌入

4 月 2 日
阅读 8 分钟
43
嵌入模型在很多场合都有广泛应用,如检索、重排、聚类以及分类。近年来,研究界在嵌入模型领域取得了很大的进展,这些进展大大提高了基于语义的应用的竞争力。BGE、GTE 以及 E5 等模型在 MTEB 基准上长期霸榜,在某些情况下甚至优于私有的嵌入服务。 Hugging Face 模型 hub 提供了多种尺寸的嵌入模型,从轻量级 (100-350...
封面图

在 NVIDIA DGX Cloud 上使用 H100 GPU 轻松训练模型

3 月 21 日
阅读 3 分钟
46
今天,我们正式宣布推出 DGX 云端训练 (Train on DGX Cloud) 服务,这是 Hugging Face Hub 上针对企业 Hub 组织的全新服务。
封面图

数据好合: Argilla 和 Hugging Face Spaces 携手赋能社区合力构建更好的数据集

3 月 20 日
阅读 2 分钟
38
最近,Argilla 和 Hugging Face 共同 推出 了 Data is Better Together 计划,旨在凝聚社区力量协力构建一个对提示进行排名的偏好数据集。仅用几天,我们就吸引了:
封面图

TTS 擂台: 文本转语音模型的自由搏击场

3 月 16 日
阅读 2 分钟
35
对文本转语音 (text-to-speech, TTS) 模型的质量进行自动度量非常困难。虽然评估声音的自然度和语调变化对人类来说是一项微不足道的任务,但对人工智能来说要困难得多。为了推进这一领域的发展,我们很高兴推出 TTS 擂台。其灵感来自于 LMSys 为 LLM 提供的 <url-text>Chatbot 擂台</url-text>。借鉴 Chatbo...
封面图

基于英特尔® Gaudi® 2 AI 加速器的文本生成流水线

3 月 13 日
阅读 6 分钟
54
随着生成式人工智能 (Generative AI,GenAI) 革命的全面推进,使用 Llama 2 等开源 transformer 模型生成文本已成为新风尚。人工智能爱好者及开发人员正在寻求利用此类模型的生成能力来赋能不同的场景及应用。本文展示了如何基于 Optimum Habana 以及我们实现的流水线类轻松使用 Llama 2 系列模型 (7b、13b 及 70b) 生成...
封面图

来自 AI Secure 实验室的 LLM 安全排行榜简介

3 月 12 日
阅读 3 分钟
59
近来,LLM 已深入人心,大有燎原之势。但在我们将其应用于千行百业之前,理解其在不同场景下的安全性和潜在风险显得尤为重要。为此,美国白宫发布了关于安全、可靠、可信的人工智能的行政命令; 欧盟人工智能法案也对高风险人工智能系统的设立了专门的强制性要求。在这样的大背景下,我们首先需要确立一个用于定量评估人...
封面图

俄罗斯套娃 (Matryoshka) 嵌入模型概述

3 月 6 日
阅读 6 分钟
109
在这篇博客中,我们将向你介绍俄罗斯套娃嵌入的概念,并解释为什么它们很有用。我们将讨论这些模型在理论上是如何训练的,以及你如何使用 Sentence Transformers 来训练它们。
封面图

合成数据: 利用开源技术节约资金、时间和减少碳排放

3 月 6 日
阅读 15 分钟
72
你应该使用自己的模型,还是使用 LLM API?创建你自己的模型可以让你完全控制,但需要数据收集、训练和部署方面的专业知识。LLM API 使用起来更简单,但会将数据发送给第三方,并对提供商有强烈依赖。这篇博客让你可以将 LLM 的便利性与定制模型的控制性和效率相结合。
封面图

企业场景排行榜简介: 现实世界用例排行榜

3 月 5 日
阅读 5 分钟
67
企业场景排行榜简介: 现实世界用例排行榜今天,Patronus 团队很高兴向社区发布我们与 Hugging Face 合作完成的、基于 Hugging Face 排行榜模板 构建的、新的 企业场景排行榜。本排行榜旨在评估语言模型在企业现实用例中的性能。目前已支持 6 类任务,涵盖: 金融、法律保密、创意写作、客服对话、毒性以及企业 PII。我们...
封面图

开源代码生成模型 StarCoder 2 全新上线!

3 月 5 日
阅读 2 分钟
133
BigCode 正式推出 StarCoder2 —— 一系列新一代的开放源代码大语言模型 (LLMs)。这些模型全部基于一个全新、大规模且高品质的代码数据集 The Stack v2 进行训练。我们不仅公开了所有的模型和数据集,还包括了数据处理和训练代码的详细信息,详情请参阅 相关论文。
封面图

Hugging Face 表情包来啦!

3 月 5 日
阅读 1 分钟
101
作为梦想成为第一家以表情符号上市的公司,以及在社交平台发文 emoji 不离手的 Hugging Face,正式为中国社区成员们带来了一套软萌的 Hugging Face 表情包。还等什么,快来下载跟朋友们聊起来吧!
封面图

人工智能水印技术入门:工具与技巧

2 月 28 日
阅读 4 分钟
347
近几个月来,我们看到了多起关于“深度伪造 (deepfakes)”或人工智能生成内容的新闻报道:从 泰勒·斯威夫特的图片、汤姆·汉克斯的视频 到 美国总统乔·拜登的录音。这些深度伪造内容被用于各种目的,如销售产品、未经授权操纵人物形象、钓鱼获取私人信息,甚至制作误导选民的虚假资料,它们在社交媒体平台的迅速传播,使其...
封面图

使用 Hugging Face 微调 Gemma 模型

2 月 25 日
阅读 5 分钟
418
我们最近宣布了,来自 Google Deepmind 开放权重的语言模型 Gemma现已通过 Hugging Face 面向更广泛的开源社区开放。该模型提供了两个规模的版本:20 亿和 70 亿参数,包括预训练版本和经过指令调优的版本。它在 Hugging Face 平台上提供支持,可在 Vertex Model Garden 和 Google Kubernetes Engine 中轻松部署和微调。
封面图

小红书 x Hugging Face 邀请你一起晒「创意新春照」

2 月 24 日
阅读 4 分钟
189
为了迎接龙年春节的到来,我们的InstantID全新推出「Spring Festival」新春风格!并与著名开源模型社区 Hugging Face 联手,在小红书 APP 上,特别策划 「你的新春照我包了」 有奖互动。只需上传一张照片,30 秒内轻松定制你的专属新春照。
封面图

欢迎 Gemma: Google 最新推出开源大语言模型

2 月 22 日
阅读 7 分钟
344
今天,Google 发布了一系列最新的开放式大型语言模型 —— Gemma!Google 正在加强其对开源人工智能的支持,我们也非常有幸能够帮助全力支持这次发布,并与 Hugging Face 生态完美集成。
封面图

开源大语言模型作为 LangChain 智能体

2 月 22 日
阅读 6 分钟
389
开源大型语言模型 (LLMs) 现已达到一种性能水平,使它们适合作为推动智能体工作流的推理引擎: Mixtral 甚至在我们的基准测试中 超过了 GPT-3.5,并且通过微调,其性能可以轻易的得到进一步增强。
封面图

使用 🤗 Optimum Intel 在英特尔至强上加速 StarCoder: Q8/Q4 及投机解码

2 月 20 日
阅读 5 分钟
249
近来,随着 BigCode 的 StarCoder 以及 Meta AI 的 Code Llama 等诸多先进模型的发布,代码生成模型变得炙手可热。同时,业界也涌现出了大量的致力于优化大语言模型 (LLM) 的运行速度及易用性的工作。我们很高兴能够分享我们在英特尔至强 CPU 上优化 LLM 的最新结果,本文我们主要关注 StarCoder 这一流行的代码生成 LLM。
封面图

LLaMA 2 - 你所需要的一切资源

2 月 19 日
阅读 3 分钟
263
LLaMA 2 是一个由 Meta 开发的大型语言模型,是 LLaMA 1 的继任者。LLaMA 2 可通过 AWS、Hugging Face 等提供商获取,并免费用于研究和商业用途。LLaMA 2 预训练模型在 2 万亿个标记上进行训练,相比 LLaMA 1 的上下文长度增加了一倍。它的微调模型则在超过 100 万个人工标注数据下完成。
封面图

听说有 Hugging Face 陪伴的春节,是这样的…

2 月 9 日
阅读 1 分钟
349
过去的一年我们持续看到 AI 技术的腾飞和发展,以及诸多机构为开源 AI 作出巨大的贡献。非常感谢将模型、数据集和应用 Demo 发布在 Hugging Face 上的团队,新的一年,我们也会持续发掘和介绍更多国内开发者 / 研究机构发布在 Hugging Face 上的作品。也欢迎大家主动联系我们 (ง •̀_•́)ง
封面图

扩展说明: 指令微调 Llama 2

2 月 8 日
阅读 8 分钟
312
这篇博客是一篇来自 Meta AI,关于指令微调 Llama 2 的扩展说明。旨在聚焦构建指令数据集,有了它,我们则可以使用自己的指令来微调 Llama 2 基础模型。
封面图

句子嵌入: 交叉编码和重排序

2 月 6 日
阅读 26 分钟
227
这个系列目的是揭开嵌入的神秘面纱,并展示如何在你的项目中使用它们。第一篇博客 介绍了如何使用和扩展开源嵌入模型,选择现有的模型,当前的评价方法,以及生态系统的发展状态。第二篇博客将会更一步深入嵌入并解释双向编码和交叉编码的区别。进一步我们将了解 检索和重排序 的理论。我们会构建一个工具,它可以来回答...
封面图

全世界 LoRA 训练脚本,联合起来!

2 月 5 日
阅读 13 分钟
258
我们把 Replicate 在 SDXL Cog 训练器中使用的枢轴微调 (Pivotal Tuning) 技术与 Kohya 训练器中使用的 Prodigy 优化器相结合,再加上一堆其他优化,一起对 SDXL 进行 Dreambooth LoRA 微调,取得了非常好的效果。你可以在 diffusers 上找到 我们使用的训练脚本🧨,或是直接 在 Colab 上 试着运行一下。
封面图

随机 Transformer

1 月 29 日
阅读 28 分钟
123
在这篇博客中,我们将通过一个端到端的示例来讲解 Transformer 模型中的数学原理。我们的目标是对模型的工作原理有一个良好的理解。为了使内容易于理解,我们会进行大量简化。我们将减少模型的维度,以便我们可以手动推理模型的计算过程。例如,我们将使用 4 维的嵌入向量代替原始的 512 维嵌入向量。这样做可以更容易手...
封面图

最新 Hugging Face 强化学习课程(中文版)来啦!

1 月 22 日
阅读 2 分钟
169
人工智能中最引人入胜的话题莫过于深度强化学习 (Deep Reinforcement Learning) 了,我们在 2022 年 12 月 5 日开启了《深度强化学习课程 v2.0》的课程学习,有来自全球众多学员们的参加。课程已经完成更新,并且发布在 Hugging Face 官网 [链接]
封面图