最近,不少开发者发现HF-Mirror无法使用,导致模型下载受阻。面对这种情况,不少人开始寻找新的模型下载替代方案。OpenCSG,国内领先的大模型开源社区,以其最及时的模型更新、稳定高速的下载服务,以及多样化的下载方式,成为开发者告别模型荒的首选!无论是直接下载、命令行工具、SDK API调用,还是通过Git或Hugging Face兼容接口,OpenCSG都能满足您的需求。以下我们整理了几种最简单的下载方式,助您快速 Get 到心仪的模型!
方法 1:官网直接下载 🌐
访问 OpenCSG 官网 ,搜索目标模型或数据集。 在详情页找到 “文件” 选项卡,点击 ↓ 按钮即可下载所需文件
适用场景: 临时下载单个模型或数据集文件,简单直观,上手无难度
方法 2:CSGHub CLI 命令行工具 💻
OpenCSG提供了强大的命令行工具 csghub-cli ,让下载更高效! (建议使用python 3.10版本)
安装CLI工具(仅需一次):pip install csghub-sdk
使用命令行下载模型(例如 csg-wukong-1B):
csghub-cli download OpenCSG/csg-wukong-1Bbr
下载数据集(例如 chinese-fineweb-edu):
csghub-cli download OpenCSG/chinese-fineweb-edu -t dataset
适合场景:自动化脚本、批量下载,效率提升 N 个 Level!
方法 3:Python API 下载 🐍
在代码中直接调用模型或数据集?没问题! 使用 Python API,一切尽在掌控!
安装SDK(如果尚未安装):pip install csghub-sdk
示例代码(模型下载):
from pycsghub.snapshot_download import snapshot_download
repo_id = "OpenCSG/csg-wukong-1B"
result = snapshot_download(repo_id, repo_type="model", cache_dir="./models")
示例代码(数据集下载):
epo_id = "OpenCSG/chinese-fineweb-edu"
result = snapshot_download(repo_id, repo_type="dataset", cache_dir="./datasets")
适合场景:Python开发者、集成到自动化任务。
方法 4:Hugging Face兼容模式🤗
Hugging Face 用户看过来!OpenCSG 无缝兼容,切换零成本!
只需修改环境变量
export HF_ENDPOINT=https://hub.opencsg.com/hf
然后,像使用 Hugging Face 一样加载模型:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "OpenCSG/csg-wukong-1B"
model = AutoModelForCausalLM.from_pretrained(model_id)
tokenizer = AutoTokenizer.from_pretrained(model_id)
inputs = tokenizer.encode("Hello, world!", return_tensors="pt")
outputs = model.generate(inputs)
print(tokenizer.decode(outputs[0]))
适用场景: Hugging Face 用户,快速迁移,丝滑体验!
方法 5:Git 下载 🛠️
在目标模型或数据集的详情页中,点击“下载模型”或“下载数据集”按钮。
找到 HTTPS 下载命令,复制 git clone 命令并在终端中执行。
适用场景: 大模型管理、团队协作,版本控制更安心!
为什么选择 OpenCSG?✅ 高速稳定: CDN 加速,超高传输速度!支持断点续传,告别下载中断!
✅ 多种方式: 兼容 CLI、SDK、Git、Hugging Face 接口,满足不同需求!
✅ 易于使用: 无论是新手还是资深开发者,都能轻松上手 OpenCSG 的各种下载工具。
✅ 持续更新: OpenCSG 团队会持续更新模型资源,确保你始终能够获取到最新的 AI 技术。
✅ 免费使用: 开放模型下载权限,支持社区共享,拥抱开源!HF-Mirror 停用了? 没关系! 立即体验 OpenCSG,享受更顺畅的模型管理体验!
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。