DeepSeek-R1 是深度求索 (DeepSeek) 公司于 2025 年推出的第一版语言模型系列,专注于高效、轻量化的自然语言处理任务。该系列模型通过先进的技术优化,如知识蒸馏,旨在在保持高性能的同时降低计算资源需求。DeepSeek-R1 的设计注重实际应用场景,支持快速部署和集成,适用于多种任务,包括文本生成、对话系统、翻译和摘要生成等。
在技术层面,DeepSeek-R1 采用了知识蒸馏技术,通过从大模型中提取知识,训练出更小但性能接近的模型。同时,高效的分布式训练和优化算法进一步缩短了训练时间,提升了模型的开发效率。这些技术亮点使得 DeepSeek-R1 在实际应用中表现出色。
教程链接:https://go.openbayes.com/vmsnx
使用云平台:OpenBayes
http://openbayes.com/console/signup?r=sony_0m6v
登录 http://OpenBayes.com,在「公共教程」页面,选择「用 Ollama 和 Open Webul 部署 Deepseek R1」教程。
页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。
选择「NVIDIA GeForce RTX 4090」以及「PyTorch」镜像,OpenBayes 平台上线了新的计费方式,大家可以按照需求选择「按量付费」或「包日/周/月」,点击「继续执行」。可以使用文章开头的邀请链接,获得 RTX 4090 使用时长!
稍等片刻,待系统分配好资源,当状态变为「运行中」后,点击「API 地址」边上的跳转箭头,即可跳转至 Demo 页面。
该教程为我们提供了 4 种预设模型,分别为 1.5b、7b、8b、32b,可以按照需求选择模型。
在右侧可以设置对话参数。
常见对话设置
1. Temperature(温度)
- 控制输出的随机性,范围一般在 0.0-2.0 之间。
- 低值(如 0.1):更确定,偏向常见词汇。
- 高值(如 1.5):更随机,可能生成更有创意但不稳定的内容。
2. Top-k Sampling(Top-k 采样)
- 只从概率最高的 k 个词中采样,排除低概率词汇。
- k 值小(如 10):更确定,减少偶然性。
- k 值大(如 50):更多样,增加创新性。
3. Top-p Sampling(Nucleus Sampling,Top-p 采样)
- 选择累计概率达到 p 的词集,不固定 k 值。
- 低值(如 0.3):更确定,减少偶然性。
- 高值(如 0.9):更多样,提升流畅度。
4. Repetition Penalty(重复惩罚)
- 控制文本重复度,通常在 1.0-2.0 之间。
- 值高(如 1.5):减少重复,提升可读性。
- 值低(如 1.0):无惩罚,可能导致模型重复词句。
5. Max Tokens(最大生成长度)
- 限制模型最多生成的 token 数,避免超长输出。
- 典型范围:50-4096(依赖具体模型)。
设置好模型和参数后,在中间区域输入对话信息(可选择联网搜索与代码解释器)即可与模型展开对话。
相比于其它的 Chatbot,DeepSeek-R1 可以提供更完整的思考过程,性能更加突出。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。