重磅好文!8个章节带你全方位了解DeepSeek
重磅好文!8个章节带你全方位了解DeepSeek

这两天,DeepSeek-R1 火的飞起,在中日美三个 Appstore 榜上登顶。

还直接干崩英伟达,盘前先死 13 个点,连带着台积电一起。

重磅好文!8个章节带你全方位了解DeepSeek
重磅好文!8个章节带你全方位了解DeepSeek

几乎一夜之间,所有人都在关注 DeepSeek,甚至我在老家,完全没用过 AI 的七大姑八大姨,都在问我,DeepSeek 是什么,怎么用。

还有一些人体验了一下后,拿着 8.11 和 8.9 谁大谁小的截图跟我说,这玩意也不行啊。

感觉市面上,关于 DeepSeek 的信息还是很乱。

所以,今天我想用 8 个问题和答案,来让大家详细的了解,DeepSeek-R1 这个模型,是什么,以及,提示词应该怎么写,到底怎么用。

话不多说,开始。

一、DeepSeek 是什么?

DeepSeek,是一家在 2023 年 7 月 17 日成立的公司深度求索所开发的大模型名称。

重磅好文!8个章节带你全方位了解DeepSeek

2024 年 1 月 5 日,他们正式发布 DeepSeek LLM,这是深度求索第一个发布的 AI 大模型。

2024 年 5 月 7 日,他们发布 DeepSeek-V2,正式打响中国大模型价格战,当时新发布的 DeepSeek-V2 的 API 价格只有 GPT-4o 的 2.7%,随后一周时间,国产厂商全部跟进,字节、阿里、百度、腾讯全部降价。

2024 年 12 月 26 日,DeepSeek-V3 正式发布且直接开源,而且训练成本仅为 557.6 万美元,剔除掉 Meta、OpenAI 等大厂的前期探索成本,大概是别人的三分之一,并且整体模型评测能力媲美闭源模型,震惊海外,自此,东方的神秘力量彻底坐实。

2025 年 1 月 20 日,全新的推理模型 DeepSeek-R1 发布,同样发布并开源,效果媲美 OpenAI o1,同时 API 价格仅为 OpenAI o1 的 3.7%,再一次震惊海外,让 Meta 连夜成立四个研究小组,让全球算力暴跌,英伟达的神话都岌岌可危。

就是这么一家公司,而深度求索的背后,是著名量化私募幻方基金,而基金的盈利模式非常简单,跟管理规模绑定,固定收取管理规模的管理费和收益部分的提成资金,无论基金涨跌都能赚钱,真正的旱涝保收的行业。

所以,幻方不缺钱,当年赚了钱,在英伟达还没向中国禁售的时候,幻方直接能掏钱搭一个万卡 A100 集群。

这也让深度求索,让 DeepSeek,不以盈利为导向,目标,就是 AI 的星辰大海。

二、DeepSeek-R1 是什么?

DeepSeek-R1,就是最近爆火的主角了。

也是直接让各路美国 AI 大佬破防的始作俑者。

给奥特曼都在 X 上开始阴阳了。

重磅好文!8个章节带你全方位了解DeepSeek

很多人拿 DeepSeek-R1 和 GPT4o 比,其实是不对的。

首先,GPT4o 是个多模态通用模型,可以理解图片、语音、视频,也可以输出语音。多模态往后做,更像 Gemini 2,是一个多模态大一统模型,可以理解一切模态,也可以输出一切模态。

而 DeepSeek-R1 是一个深度推理模型,对标 OpenAI 的应该是 OpenAI o1,而不是 GPT4o,关于 OpenAI o1 曾经我首发写过一篇文章,可以去看,就不过多赘述了:OpenAI 全新发布 o1 模型 – 我们正式迈入了下一个时代。

现在回头看,当时这个副标题,还是很有前瞻性的。

我也让 DeepSeek 列个了 4o 和 o1 的对比表格,大家应该也能一目了然。

重磅好文!8个章节带你全方位了解DeepSeek

而 R1,可以直接类比 o1,两者在跑分上,几乎相同。

重磅好文!8个章节带你全方位了解DeepSeek

并且已经开源。

HuggingFace 链接: https://huggingface.co/deepseek-ai

论文链接: https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf

三、DeepSeek-R1 在哪用?

DeepSeek-R1 除了面向开发者的开源模型和 API,也有面向普通用户的 C 端版本。

网页版: https://chat.deepseek.com/

重磅好文!8个章节带你全方位了解DeepSeek

当你勾上深度思考功能,此时就是使用 R1 模型,当你不勾的时候,使用的是类 GPT4o 的 v3 模型。

当然他们也有 APP 版本,你直接在应用商店搜索 DeepSeek 就好。

重磅好文!8个章节带你全方位了解DeepSeek

跟网页端交互基本一致。目前免费,就是用户增速过快,所以偶尔会有崩溃断网连不上问题,你可以在这个地方,来看 DeepSeek 的服务器状态。

网址:https://status.deepseek.com/

重磅好文!8个章节带你全方位了解DeepSeek

四、应该怎么跟 R1 对话?

首先,我想明确一点的是,DeepSeek-R1 是推理模型,不是通用模型。

在几个月前 OpenAI o1 刚刚发布时,我用通用模型的方式跟 o1 对话,写了一堆的结构化提示词,得到了极差的效果,那时候我一度觉得这玩意是个垃圾。

而后面,我才发现,其实是我自己的思维惯性,这玩意跟 4o 不一样,这不是一个很傻的聊天模型。

这是一个能力很牛逼但不知道你想要什么的真实员工。

今年 1 月也有一篇海外的文章很火,叫《o1 isn’t a chat model (and that’s the point)》。

跟我是完全一样的看法。

所以,有一个点一定要注意,明确你的目标,而不是给模型任务。

例如我们以前在写 prompt 的时候,总是会写你是一个 XXX,现在我的任务是 XXX,你要按照 1、2、3 步来给我执行 balabala。

但是现在,请抛弃那些写法。

重磅好文!8个章节带你全方位了解DeepSeek

把你的一切,交给 AI,让它去进行自我推理,效果会更好。AI 会自动填上那些你没说出口的话,会给你想出可能更好的解决方案。

有一个不得不承认的事实是,我是一个很普通的普通人,而像我一样的很多普通人们,现在大概率是不如 AI 博学和聪明的。

所以,不如说出你的目标,把他当作一个很牛逼的员工,让他,放手去做。
比如这个 case。

重磅好文!8个章节带你全方位了解DeepSeek

只需要表达你是谁+你的目标就 OK。

特别是你是谁这个背景信息,非常非常的有用。

重磅好文!8个章节带你全方位了解DeepSeek

所以请抛弃掉一起过往所学习的结构化框架,如果真的需要有一个万能 Prompt 模板,那就是:

你是谁 + 背景信息 + 你的目标

背景信息给的越多越能让 R1 理解你的需求帮助你更好的完成任务。

时刻把他当成:

这是一个能力很牛逼但不知道你想要什么的员工。

最牛逼的提示词技巧,就是没有技巧。

大道至简,重剑无锋。

所以,千言万语汇聚成一句话就是:用人话清晰的表达出你的需求,这就够了。

五、R1 输出的内容看不懂?

很多人在用“说人话”这三个字,来表达推理模型和通用模型不一样,这其实有点奇怪。

不过从实用角度来说,这确实是一个能让普通人看懂 AI 输出专业内容的小技巧。

不过这并不是一个推理模型才有的技巧,因为一直就存在,本质上就是对方不知道你是谁,不知道你的理解能力和你的学识能力是什么水平。

所以我也想分享一个我自己这两年跟 AI 对话时用的最多的一个小技巧,也是我自己最常用的“人话”prompt:

我是一个小学生。

当你在跟 AI 对话时,把这句话往前一摆,自降身位,你就会发现,一切都通了,一切都能看的懂了。

比如我想让 R1 给我解释一下什么叫大模型中的 RL 用法。

如果不用这句话的话,就会得到这样的解释。

重磅好文!8个章节带你全方位了解DeepSeek

我相信你看到一定脑壳疼。你就是不懂才需要让它给你解释,结果解释了个这。

但是,如果把那个神句加上呢?

重磅好文!8个章节带你全方位了解DeepSeek

反正我是一下子能看了,舒服了多了,可能我就真的是个小学生的水平。。。

当然如果你想稍微进阶一点,就可以说,我是一个初中生,或者,我是一个高中生,一点一点的可控升级。

我用了两年,非常好用,推荐给大家。

六、R1 的写作很强吗?

R1 除了能非常好的做常规推理模型都能做的数学题、代码等等,这次有一个非常非常特别的点是:

中文写作能力强到爆炸。

过往,大家都说,在写作能力上几乎所有的大模型都是众生平等的一坨屎,唯有 Claude 超出了一坨之外,独立于三界之上。

而这一次,DeepSeek-R1 在中文写作和文笔上,已经是独一档的领先了。

而且对于文风的模拟,效果极佳。

比如我非常非常喜欢知乎上一个大 V 叫大师兄朱炫的文笔。

重磅好文!8个章节带你全方位了解DeepSeek

我甚至都不需要跟 DeepSeek-R1 说朱炫的文笔是什么样的,直接就说一句话:

以知乎大 V 朱炫的文风,来锐评一下爱情的求而不得,告诉大家,总会有人在等你。

来给大家看看成文:

重磅好文!8个章节带你全方位了解DeepSeek

虽然达不到朱炫那百分百的功力,达不到他那种多智而近妖的文笔,但是已经非常非常强了。

毕竟,只需要一句话而已。

再写一首,李煜风格的诗词。

“以李煜的诗词风格,来写一首我回老家没有朋友玩的感觉”

重磅好文!8个章节带你全方位了解DeepSeek

《虞美人·归乡感怀》

故园旧巷行人少,空有榆钱老。

秋千院落锁苍苔,偶见邻家黄犬过阶来。

重游往日嬉春处,蛛网斜阳驻。

笑谈声远柳风凉,唯剩一庭明月照空廊。

对仗、押韵全都到位了。

真的,非常的强。

七、R1 可以联网吗?

众人皆知推理模型好,但是推理模型,几乎都不联网。

典型如 OpenAI o1。

重磅好文!8个章节带你全方位了解DeepSeek

这给我带来了非常的多的困扰,要知道,OpenAI o1 的知识库还是 24 年,很多东西都不知道,更别提一些所谓的实事了,你想用它来梳理分析一些最近的数据,比如美元指数、比如最近的财报等等,它完全不知道,甚至还传不了 PDF,就非常的 der 比。

而 DeepSeek,是为数不多的,推理+联网的。

重磅好文!8个章节带你全方位了解DeepSeek

我们来试试这句话:我想用鲁迅的文风写一篇 2000 字的公众号文章,分析一下 2025 春节档哪几部电影能爆,不要结构化。

DeepSeek 去网上搜了 50 个网页,然后思考了半天。

重磅好文!8个章节带你全方位了解DeepSeek

用鲁迅的文风,成了一篇文。

重磅好文!8个章节带你全方位了解DeepSeek

效果非常好。

虽然整体测下来,在联网资料的 RAG 层面还有一些问题和不尽如意,但是已经非常强了,至少,能听懂我的话,知道我想要的是鲁迅风格。

再给一些时间。

八、算力神话崩盘了吗?

最后,我想说一下算力的问题。

昨天,A 股算力和美股算力都崩了,大家几乎都把原因归结到 DeepSeek 很便宜,所以未来不需要那么多算力,算力神话崩塌了。

但是我觉得这个思路不太对。

在第一次工业革命的时候,有一个经济学里面非常著名的悖论,是由威廉·斯坦利·杰文斯提出来的,叫做 Jevons 悖论。

当时,英国的工业革命正在加速发展,蒸汽机的效率也在不断提高。人们普遍认为,蒸汽机会越来越节能,也越来越会减少煤炭消耗。
但实际情况却打了所有人的脸。

因为,更高效的蒸汽机降低了使用煤炭的成本,结果导致蒸汽机被更广泛应用,煤炭消耗总量反而大幅增加。

原因大概是这样的:

假设新技术让汽车的燃油效率提高了 50%(比如每加仑能跑 30 公里变成 45 公里)。照理来说,这应该减少燃油总消耗,但现实可能是:

由于油耗更低,开车的成本下降,人们更愿意开车,开车里程增加。

购车门槛降低,更多人买车。

物流成本下降,商家扩大运输量。

最终,油耗效率提高后,燃油消耗的总量可能不降反升。

跟现在算力逻辑是一摸一样,如果你要把 DeepSeek 对与算力的影响带入的话,那其实就会导致:

因为大模型需要的训练和推理算力成本下降,反而会推动 AI 应用和生态的繁荣,端侧、个人级别大模型逐渐成熟,算力的总需求反而越来越大。

至于股市算力崩盘,我想说的是,涨多了就是原罪。

而且美元指数都崩成什么样了,直接破了 60 日均线,纳斯达克和英伟达不崩才奇怪好吧。

重磅好文!8个章节带你全方位了解DeepSeek

只能说,DeepSeek 有短期驱动效应,但是核心还是内身问题,DeepSeek 踩中了这个节点,天时地利人和。

此刻的 DeepSeek,就是众望所归的,天命人。

写在最后

昨天,冯骥的微博说,DeepSeek 是国运。

我想说,是,也不是。

国运不是单一的点,而是一群点而连成的面。

流浪地球、新能源车、黑神话悟空、六代机、TikTok、DeepSeek 等等等等。

这些点连起来的面,才是真正的国运。

泱泱中华五千年。

无论多少风雨。

未来也必定。

国运昌隆。

谢谢你看我的文章,我们,下次再见!

作者 gouge

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注