你好,我是阮小贰。
这两天,我查了很多资料,也看了一下之前的评论区,
虽然许多人都已经开始尝试在使用DeepSeek,但也有很多人吐槽说很垃圾,并没想象中那么牛。
其实问题根本不在工具,很多人的使用姿势就搞错了,用大炮打蚊子,白白浪费DeepSeek的强大功能。
接下来,我会用10个使用技巧教会大家如何与DeepSeek高质量对话,以及一些隐藏技巧。
学习完之后,你就会发现DeepSeek远比你想象中的强大。
一、选对模式,事半功倍
DeepSeek提供基础模型(V3)、深度思考(R1)和联网搜索三种模式,针对不同场景灵活选择:
1.1、基础模型(V3)
- 定位:快速响应的百科助手
特点:
- 默认模式,无需勾选功能
- 支持日常问答、文本生成等基础任务(如“解释量子力学”)
- 响应速度极快(平均1秒内)
- 适用场景:日常问答首选,响应快,适合百科查询、简单任务
1.2、深度思考(R1)
- 定位:逻辑推理专家
特点:
- 专攻复杂问题(数学证明、代码调试、学术分析)
- 支持思维链展示,推理过程全透明
- 响应较慢(复杂问题需2-3分钟)
- 适用场景:专攻复杂推理,如数学题、代码调试(如“用Python实现快速排序”)
1.3、联网搜索
- 定位:实时信息捕手
特点:
- 基于RAG技术整合网络最新数据(知识库更新至2024年7月)
- 支持查询动态事件(如“2025春晚《秧bot》技术解析”)
使用技巧:
- 避免与R1模式同时启用,以防逻辑冲突
二、性能对标:与主流模型的横向对比
2.1、V3对标GPT-4o
DeepSeek的V3模型堪比GPT-4o,二者的设计理念和应用场景非常相似。
V3采用了Moe架构,拥有671B的参数量,能够在百科知识领域提供快速响应。
2.2、R1对标o1
R1是DeepSeek的深度推理模型,和OpenAI的o1模型非常类似。
二者都在处理推理、深度思考以及复杂逻辑问题时,展现出了非凡的能力。
R1采用了660B的参数,并且在强化学习和后训练方面表现出色。
R1更擅长逻辑推理和复杂问题的解答,在这一点上,R1已经超越了o1模型。
关于4o与o1的区别,下面有一张表,大家看完就知道该如何选用V3和R1模型了。
三、知识更新至2024年7月
目前,DeepSeek的预训练数据(你可以理解为模型已学习的知识),已经更新至2024年7月。
但对于之后的新闻或技术动态,DeepSeek的联网搜索模式就显得尤为重要,
它能够根据网络实时获取最新信息,弥补知识库的空白。
所以,2024年7月前的问题基本上不需要打开联网功能。
而之后的问题(比如2025年诺贝尔奖得主是谁?春晚秧Bot),
DeepSeekZ目前并未学习,建议开启联网功能,效果更佳。
四、提示词核心:准确表达
DeepSeek,无论是V3还是R1模型,都是不太吃提示词的,
只需要做到【准确表达】即可。
通用提示词模板 = 身份 + 目标
示例:
你是李白,请以李白的风格口吻写一首七律.春节
适当情况下,也可以补充一些背景信息:
通用提示词模板 = 身份 + 背景 + 目标
示例:
你是李白,目前正被流放夜郎,请以李白的风格口吻写一首七律.春节
还可以是:
通用提示词模板 = 身份 + 背景 + 目标 + 限制条件
示例:
你是李白,目前正被流放夜郎,请以李白的风格口吻写一首七律.春节,严格遵循律诗的格律要求,包括平仄、押韵和对仗。其中,颔联(第三、四句)和颈联(第五、六句)必须对仗工整,词性相对、结构相似,平仄相对。
不管哪个模板,其核心都是【准确表达】。
能够做到准确表达,说人话,就已经完全够用了。
所以,过去你们学的那些结构化提示词,从现在起,就可以大胆地丢掉了。
五、与DeepSeek沟通,尽量说人话
最好的提示词,就是没有提示词,说人话就可以,
在会动脑子的deepseek面前,不用玩心思,真诚就是必杀技。
越是直白、俗气,就越能激发它的潜能。
示例:
解释一下什么叫通货膨胀,说人话
六、如何去除DeepSeek的AI味
过去,我们经常吐槽AI生成的东西带有明显的"AI味"。
其根源就在于模型过分追求结构化输出,
习惯性地运用"首先、其次、然后、总而言之"等规范性的衔接词,使得内容显得过于程式化和刻板。
而作为具有强烈感性特征的生物体,人类对这种理性至上的文字形式实在难以忍受,
尤其是当文字呈现出八股文式的呆板架构或学术文体的生硬风格时,更是令人昏昏欲睡。
那么这种情况,建议你加一句提示,比如:
1、我是一名小学生 / 请用小学生能听懂的话解释。
2、说人话
3、用中学生都能听懂的语言
4、非专业人士都能听懂
提问的时候加上上述这些提示,就可以极大地去除DeepSeek 的AI味
示例:
请用小学生能听懂的话解释,什么是区块链?
怎么样?
现在是不是一下子就理解什么是区块链了?
七、活用联网搜索
以o1为代表的推理模型,基本上都是不能联网的。
而联网搜索是DeepSeek的一大亮点,它让模型在回答时不仅仅依赖预训练数据,还能实时从网络上检索最新的信息。
你可以问到2024年7月以后发生的事件,或者某些新兴技术领域的问题,
DeepSeek都能通过联网搜索为你提供更准确、及时的回答。
而DeepSeek,是少有的支持推理+联网的模型。
八、活用上传附件
除了联网搜索,DeepSeek还支持上传附件功能,这为用户提供了更多个性化的体验。
通过上传附件,你可以将自己的私密资料、知识库、甚至是一些需要深度推理的材料直接交给DeepSeek,
让它基于这些专有的文件进行分析和推理。
DeepSeek的推理模型,不仅能联网,还支持上传附件(最多不超过50个,每个不超过100MB)。
推理+上传附件,可以做更多本地化、私密化的东西,比如你自己的知识库或者内部资料。
让其基于自有知识库进行推理和思考。
示例:
阅读这篇材料,告诉我讲了些什么东西?输出言简意赅。
九、通过持续追问,获取详细答案
运用持续追问的技巧,能够帮你快速搞清楚一个复杂问题,大致步骤如下:
1. 初始提问:"如何做好短视频脚本?"
2. 细化追问:"如何在前3秒吸引观众?"
3. 案例扩展:"举一个美食类账号的开头案例"
例如,我先问DeepSeek:“如何做好短视频脚本?”
对于如何吸引观众,我还是不懂,
那么我就可以继续追问DeepSeek“如何在前3秒吸引观众?”。
最后进一步的案例扩展,以便于我更好的理解。
我让DeepSeek再列举出一个例子“举一个美食类账号的开头案例”。
十、R1的三个开放特性
对于深度思考(R1)模型,DeepSeek做到了三个重要的开放特性,
让R1不仅仅是一个“黑盒”模型,它的思维过程、训练技术和模型参数都是透明开放的。
10.1、思维链全开放
R1的思维链是完全开放的,用户可以看到模型进行推理时的每一步逻辑。
这不仅是一个回答,而是一个完整的思考过程。
通过这种方式,用户能获得最终答案,还能够理解AI是如何得出这个结论的。
10.2、训练技术全部公开
DeepSeek采用了RL(强化学习)技术,通过极少的标注数据提高了推理能力。
所有的训练技术,包括模型的后训练过程和数据增强方法,都是公开的。
这让广大网友都能深入理解模型的训练过程,并且可以根据需要进行调整和优化。
10.3、开源模型
DeepSeek还将R1的部分模型进行开源。
虽然R1模型本身的参数高达660B,仅为GPT-4o的1/6(输入$0.25/百万token)通常只有大公司才能使用,
但DeepSeek也为社区提供了更小的开源模型,让更多的开发者和研究者可以使用。
最小的模型只有1.5B参数,适合个人开发者进行实验和开发。
这格局太顶了,帮助全球的开发者共同推动AI的发展。
避坑提醒
- 别同时开“深度思考+联网”,易卡顿。
- 复杂问题用R1,简单问题用V3,省时高效。
写在最后
好了,以上就是本期所有啦,
希望能对你使用DeepSeek有所帮助。
当然,也欢迎大家在评论区将你的技巧分享出来,一起探讨、学习、交流。
基本上能看到这里的都是人中龙凤!
如果本文章能给你一点启发,随手点个赞、在看、转发三连吧,
如果想第一时间收到推送,也可以给我个星标⭐
谢谢你耐心看完我的文章~
个人博客:小二项目网
本文由mdnice多平台发布
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。