Hugging Face 将开源语言模型引入到 VS Code 中的 GitHub Copilot Chat 中。

Hugging Face 推出了新的集成链接,允许开发者在 Visual Studio Code 中直接将推理提供程序与 GitHub Copilot Chat 连接。此更新意味着包括 Kimi K2、DeepSeek V3.1、GLM 4.5 等在内的开源大型语言模型现在可在 VS Code 编辑器内部访问和测试,无需切换平台或使用多个工具。

工作流程设计简单,开发者安装 Hugging Face Copilot Chat 扩展,打开 VS Code 的聊天界面,选择 Hugging Face 提供程序,输入 Hugging Face 令牌,然后添加要使用的模型。连接后,他们可以使用熟悉的模型选择器界面在提供程序和模型之间无缝切换。

在社区讨论中很快出现一个实际注意事项:该功能需要编辑器的最新版本。正如 AI 研究员 Aditya Wresniyandaka 在 LinkedIn 上强调:文档忘记提及需要 VS Code 2025 年 8 月版本 1.104.0。

GitHub Copilot Chat 传统上依赖于封闭的专有模型集。通过将其与 Hugging Face 的推理提供程序网络链接,开发者可访问更广泛的 AI 工具,包括实验性和高度专业化的开放模型。

Muhammad Arshad Iqbal 称赞这一举措,指出:哦,这太酷了!现在我们可以在 VS Code 内部使用所有强大的开源编码 AI,无需再切换标签来测试像 Qwen3-Coder 这样的模型。

此集成为开发者打开了使用 Copilot Chat 与针对特定编程任务、行业或研究领域优化的模型的大门,而不是仅限于默认模型。更新由 Hugging Face 推理提供程序提供支持,该服务通过单个 API 让开发者访问数百个机器学习模型。

关键价值主张是统一:开发者无需处理具有不同可靠性保证的多个 API,可通过一个一致的接口在提供程序之间查询模型。Hugging Face 强调了几个好处:

  • 即时访问前沿模型,超越单个供应商目录所能提供的。
  • 零供应商锁定,因为开发者可以在无需大量代码更改的情况下在提供程序之间切换。
  • 生产就绪性能,具有高可用性和低延迟推理。
  • 开发者友好的集成,包括与 OpenAI 聊天完成 API 的即插即用兼容性以及用于 Python 和 JavaScript 的客户端 SDK。

Hugging Face 为集成的可访问性进行了组织。有每月推理信用的免费层用于实验,而 Pro、Team 和 Enterprise 计划提供额外容量和按需付费定价。据 Hugging Face 称,开发者支付的正是提供程序收取的费用,没有加价。

阅读 31
0 条评论