头图

最近,不少开发者发现HF-Mirror无法使用,导致模型下载受阻。面对这种情况,不少人开始寻找新的模型下载替代方案。OpenCSG,国内领先的大模型开源社区,以其最及时的模型更新、稳定高速的下载服务,以及多样化的下载方式,成为开发者告别模型荒的首选!无论是直接下载、命令行工具、SDK API调用,还是通过Git或Hugging Face兼容接口,OpenCSG都能满足您的需求。以下我们整理了几种最简单的下载方式,助您快速 Get 到心仪的模型!
图片

方法 1:官网直接下载 🌐

访问 OpenCSG 官网 ,搜索目标模型或数据集。 在详情页找到 “文件” 选项卡,点击 ↓ 按钮即可下载所需文件
图片
适用场景: 临时下载单个模型或数据集文件,简单直观,上手无难度

方法 2:CSGHub CLI 命令行工具 💻

OpenCSG提供了强大的命令行工具 csghub-cli ,让下载更高效! (建议使用python 3.10版本)
安装CLI工具(仅需一次):
pip install csghub-sdk
使用命令行下载模型(例如 csg-wukong-1B):

csghub-cli download OpenCSG/csg-wukong-1Bbr

下载数据集(例如 chinese-fineweb-edu):

csghub-cli download OpenCSG/chinese-fineweb-edu -t dataset

适合场景:自动化脚本、批量下载,效率提升 N 个 Level!

方法 3:Python API 下载 🐍

在代码中直接调用模型或数据集?没问题! 使用 Python API,一切尽在掌控!
安装SDK(如果尚未安装):
pip install csghub-sdk
示例代码(模型下载):

from pycsghub.snapshot_download import snapshot_download
repo_id = "OpenCSG/csg-wukong-1B"
result = snapshot_download(repo_id, repo_type="model", cache_dir="./models")

示例代码(数据集下载):

epo_id = "OpenCSG/chinese-fineweb-edu"
result = snapshot_download(repo_id, repo_type="dataset", cache_dir="./datasets")

适合场景:Python开发者、集成到自动化任务。

方法 4:Hugging Face兼容模式🤗

Hugging Face 用户看过来!OpenCSG 无缝兼容,切换零成本!
只需修改环境变量

export HF_ENDPOINT=https://hub.opencsg.com/hf

然后,像使用 Hugging Face 一样加载模型:

from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "OpenCSG/csg-wukong-1B"
model = AutoModelForCausalLM.from_pretrained(model_id)
tokenizer = AutoTokenizer.from_pretrained(model_id)
inputs = tokenizer.encode("Hello, world!", return_tensors="pt")
outputs = model.generate(inputs)
print(tokenizer.decode(outputs[0]))

适用场景: Hugging Face 用户,快速迁移,丝滑体验!

方法 5:Git 下载 🛠️

在目标模型或数据集的详情页中,点击“下载模型”或“下载数据集”按钮。
图片
找到 HTTPS 下载命令,复制 git clone 命令并在终端中执行。
图片
适用场景: 大模型管理、团队协作,版本控制更安心!
为什么选择 OpenCSG?✅ 高速稳定: CDN 加速,超高传输速度!支持断点续传,告别下载中断!
图片
✅ 多种方式: 兼容 CLI、SDK、Git、Hugging Face 接口,满足不同需求!
✅ 易于使用: 无论是新手还是资深开发者,都能轻松上手 OpenCSG 的各种下载工具。
✅ 持续更新: OpenCSG 团队会持续更新模型资源,确保你始终能够获取到最新的 AI 技术。
✅ 免费使用: 开放模型下载权限,支持社区共享,拥抱开源!HF-Mirror 停用了? 没关系! 立即体验 OpenCSG,享受更顺畅的模型管理体验!


OpenCSG
1 声望0 粉丝

OpenCSG 成立于2023年,致力于大模型生态社区建设,汇集人工智能行业上下游企业链,共同为大模型在垂直行业的应用提供平台产品和解决方案帮助企业在打造大模型及其应用落地的过程中的算力、人效多方面的降本增效。