标签: DeepSeek

  • 打工人拥抱DeepSeek,从买课开始

    打工人拥抱DeepSeek,从买课开始

    “2025年普通人怎么用DeepSeek Ai?”

    “一人公司,DeepSeek+自媒体杠杆”

    “DeepSeek拓客,美业如何用来变现?”

    谁也无法否认,DeepSeek这把火正越烧越旺,甚至已经从B端应用,逐渐蔓延至C端用户。普通人每天似乎只需要抬眼一睁,就能从周边接触和自网络了解中,轻易发现DeepSeek的身影。

    当AI开始重塑人们的日常,一般人想到的可能是,自己可以通过使用这些带着AI标签工具,来让工作和生活变得更加高效快捷。而另一部分人却觉得,自己应该跟上这趟时代快车,抢先布局以迅速对接更美好的“钱景”。

    于是,瞄准后面这部分人群所透露出来的迫切需求,技能培训赛道的诸多角色闻风而至。直播间、互联网社群、线下培训班……这群“卖铲子”的人,不断从各个渠道拉人头,借用“错过这个风口,留给打工人的时间就不多了”“不要等着AI来主动淘汰你”等话术,都想把课卖给那些正倍感焦虑的普通人。

    从几分钱的学习资料,到几百元的线上教学,再到几千元的线下实操,似乎已经成为每个新领域、每种新技术在火爆之后的一大掘金范式。

    此前,锌刻度曾做过数个有关技能教学培训的调查内容,包含个人IP点金术、60天速成月入过万的写手、轻松获得高薪的烘焙培训、学习20天就能接单的手办课……跟这一次的DeepSeek培训热潮相比,其实大家没什么两样。

    买课为了走捷径

    “这样最方便啊,而且老师手把手地教,跟着操作就行。”问起王依愿意花299元购买DeepSeek线上教学课的原因,她的回复很直接。

    自年后就待业在家的王依,庆幸自己赶上了好时候,“这两年大家都知道未来是属于AI的,但是除了那些定向培养出来的行业人才,一般人根本想不到有什么渠道可以抓住这个机遇。尤其是跟我差不多的人,之前从事的行业已经不行了,再找同类型的岗位来干结果也就那样。眼看着一个更有发展前途的行业就要起来了,又怎么会不心动呢。”

    在王依眼里,AI这个词在很长一段时间,其实都是隐于自己工作之外的,只有在使用市面上那些搭载了AI大模型的应用服务时,才能从中察觉到一股由全新技术浪潮带来的改变。

    DeepSeek带来的技术焦虑

    “就比如前段时间那么火的AI爆改影视剧,假如做自媒体起号,看起来只需要自己想好一个剧本创意,直接用AI生成画面和声音再组合起来就行,但要保证流量和收益就需要不断输出内容,而这种生成技术的多次服务是要收费的。”王依还在做办公室文员的时候就考虑过要干点副业,可在实操时又因为各种投入和收益的不确定而被劝退。

    随着DeepSeek开源打破了技术垄断,AI似乎也不再是大佬们的专属。

    最直观的反馈,就是它开始将各种AI应用的服务价格给打下来了。在各行业接入DeepSeek后,当一些AI工具开始宣布免费,几乎是在瞬间就打破了普通人的刻板印象,即那些原本与AI、大模型等高端词汇挂钩的技术和成本等,相当于布局新赛道的隐形门槛。

    在思考了一番未来的可能性后,王依更加笃定了,“只需要付出一笔买断课程的钱,就能试着跟老师学着怎么更好地使用AI,实操课还会教本地部署,相当于培养一个完美适配自己需求的智能助手,这样算怎么都不会亏的。”

    DeepSeek直播卖课

    “我主要是想提升一下自己在职场上的含金量,也想试试看以后能不能借助它找到更好的跳槽机会。”常林,一个自DeepSeek火爆全球那天起,就开始四处搜罗“DeepSeek+”教程的“90后”,目前最焦虑的事情是怕自己用不好AI工具。

    “不能解决实际问题的AI是没有意义的,重点是一般人根本就不懂这个症结在哪里。”常林认为,尽管人人都能使用DeepSeek,但想要成为跟上技术浪潮的第一批人,必须先要明确自己的需求所在。

    但作为一个实打实的门外汉,只要涉及到AI具体应用项目的选择,以及对目标市场在AI加持下的布局规划时,自己脑海里所有的设想都是空洞的,“说穿了,就是缺乏实际情况的指导和一些具体的参考案例。”

    而现在,几乎各个渠道都能轻而易举找到他想要的。从直接买份资料,到在直播间上课,再到找个线下培训班,就看常林舍得为此付出多少钱了,“目前只花几块买了一套资料合集,先自学着,顺便弄清楚我的具体需要,下一步再看看要不要报个班。”

    卖课都是“割韭菜”

    “到网上四处扒点相关的资料,很多都是免费分享出来的,打包好直接挂上车卖就行。”申留,一个标准的二道信息贩子。

    当锌刻度问到,这样做难道就不担心消费者不满而投诉吗?申留的回复意味深长,“卖资料的时候我们并没有承诺包教包会,相当于只是做资源的有偿分享。”

    他给出了具体的解释:一般虚拟商品不支持退货,即使有人看不懂想要退、退不了还打差评,实际影响不了下一个有需求的人购买。要是平台因为投诉或举报把商品链接下架了,那也可以四处散发资料信息,把需求用户引流到社交平台上一对一交易。而另一部分人则纯粹觉得这就是一两块的事情,即使自己没用上也没那个必要非要追着要求退货。

    锌刻度发现,只要在各大社交平台搜索“DeepSeek教程”等关键词,就能找到卖课的链接和渠道,价格从一分钱到几十块不等。

    一个颇为魔幻的剧情是,前段时间由清华大学新闻与传播学院新媒体研究中心元宇宙文化实验室的余梦珑博士后团队,所撰写的一份专业文档《DeepSeek:从入门到精通》,原本是免费分享的,如今却成了“申留们”在网络上铺得最广的一份货源。

    其中,有一家小店挂出来的商品链接,单价为1.12元一份,至今已卖了2.2万单,该链接还附带有另一个包含上述文档和全套玩法的选项,价值6.88元且标明了有万人购买,那么粗略估算一下,即使是用这条链接的最低价来算,不扣除平台分成的前提下,已经为商家带来了24640元的营业额。

    这份无本的买卖,“申留们”做得异常顺手。毕竟在相关购物平台上,这份文档的付费链接早已刷屏,哪怕只卖一毛钱,对其背后的商家来说,那也是空手套白狼的好事情。

    原本免费的资源被摆上货架

    针对看了资料也学不明白,却还想赶在第一时间吃上这碗饭的那一批人,几百至几千元的技能培训班就成了他们更好的选择,只看消费者自己愿意付出的预算是多少。

    不过,相关技能培训班因“割韭菜”,在这段时间迎来了媒体的大规模曝光。来自“大皖新闻”的调查报道称,一些线下培训机构存在具体培训内容含糊不清、老师的专业性也无资质证明等情况。

    对于线上的培训班,锌刻度更是在网上看到不少消费者发声质疑:“所谓的技巧毫无指向性,换个其他技术、其他赛道依然可以套用”“稍微对比一下你就会发现,这些所谓的专业课程,老师的独门指导,在网上搜索关键词几乎都能找到对应的内容”……

    知识付费不是万灵丹

    此前,锌刻度曾做过数个有关技能教学培训的调查内容,几乎都是同一个套路:夸大宣传未来靠技术赚快钱的可能性→吸引消费者付费学习→在学习过程中或谋求变现时发现被骗→培训班不包售后消费者求助无门。

    现阶段这股铺天盖地的“DeepSeek搞钱”之风,依然是从“DeepSeek15天教程:从入门到精通”“万字长文教会DeepSeek”“DeepSeek爆火,大量网红即将消亡”等营销话术开始,全都围绕着技术焦虑、业绩翻番、财富自由之类的议题展开。

    短期内课程销售额破万的不少

    他们最终的目的是,让不懂AI但又想学习的用户心甘情愿掏钱买课,他们造成的结果是,这种将技术严重功利化的做法会让用户陷入短视。

    当整个技能培训赛道一窝蜂开始拥抱新热点,他们只求短期利益,因而整个课程内容设计也充斥着“如何快速变现”等内容和观念,教学只重皮毛不重内核,所带来的不仅是高价收费与课程内容实际价值不匹配,受此教育的学员们也在这一过程中,或主动或被动地加重对新技术的功利心,全然只想如何能找一份高薪工作,甚至借此实现财富自由,他们对新技术之于未来的想象,自此被彻底禁锢起来。

    整个技能培训链条所关联的人,其实从没有真正理解过像DeepSeek这样的新技术,到底拥有怎样的内在逻辑、技术魅力,也没想过在此基础上进行拓展与创新。

    如此一来,这些所谓的AI教育,全都沦为了面子功夫

    一切正如轩睿基金总经理盖宏所说,“从ChatGPT的兴起到Sora,再到DeepSeek,之所以能被投机分子利用,实际上是他们在利用信息差、焦虑和流量来收割消费者。在大家热议的时候,消费者应该对新技术有个客观的了解,保持理性。”

    遗憾的是,有些人还没开始使用DeepSeek,就轻易相信了那些卖课的人。

  • DeepSeek、Grok对医生能有多大的帮助?

    就在医疗界热火朝天地讨论如何应用DeepSeek时,北京时间2025年2月18日,埃隆·马斯克的人工智能公司xAI推出了Grok 3,马斯克将其描述为“地球上最聪明的人工智能”。

    除了这大胆的说法,Grok 3在推理、编程和特定领域理解等方面的进步,确实有可能使其成为一些领域游戏规则的改变者。

    ChatGPT4、DeepSeek- R1和Grok 3的相继推出,对于那些使用人工智能的医生、药物研发者、影像公司来说,这实际上意味着什么?这些变得越来越优秀的AI在医疗健康行业终究会扮演什么角色?

    No.1 Grok 3带来什么冲击?

    埃隆·马斯克的Grok 3,得益于神经网络升级、训练数据扩展,以及增强的计算基础设施,据称在数学推理、科学逻辑推理和代码写作等能力表现超过或媲美DeepSeek、ChatGPT等对手,尤其是Grok3的推理模式令人称道。

    LabNews Media的一篇文章中指出,在医学领域Grok 3在一些方面的确表现出了显著的优势。

    首先对医疗数据的处理,Grok 3可以独立生成和完善训练数据,这在敏感的医疗领域尤为重要,它可以提高患者数据分析的准确性,同时减少诊断中的潜在隐患。

    其次,在分析大型生物医学数据集方面, Grok 3表现出特殊优势。它可以检测研究数据中的复杂模式,并支持新疗法的开发,尤其是它处理不同类型的数据的能力,将使其在药物研究和临床试验有望成为宝贵的工具。

    第三,在诊断技能方面,Grok 3的高级图像分析功能允许解释各种医学成像程序,如X射线、PET扫描和核磁共振图像。

    另外,Grok 3的实时数据处理允许直接分析和解释医疗信息,这对于在危急医疗情况下的快速决策特别有价值。

    然而,尽管诸多优点加身,试用过的医生和研究人员还是表示,Grok 3诊断医疗能力有限。

    美国一家非营利性科学研究机构研究人员Derya Unutmaz博士,是Grok的测试者之一,就对媒体指出,“必须对Grok的提示进行调整才能得到正确答案。”

    对此,马斯克在X上的一篇文章中称,这仍处于早期阶段,但它已经相当准确,并将变得非常好。

    乳腺放射科医生、深度学习研究员Laura Heacock在社交媒体帖子中说,她使用了她以前测试GPT4的相同乳房的X光检查、超声波和核磁共振作为基准,“比ChatGPT4稍微好一点,但没有一个诊断是正确的。”她预计,未来性能会变好。

    这些测试暴露出人工智能的限制性,强调了人工智能可以被视为支持性工具,而不是专业人员的替代品。

    No.2 让DeepSeek参加一场医师考试

    一个德国研究团队让DeepSeek-R1参加了一场美国医师执照考试(USMLE)。

    在这场考试中,DeepSeek-R1不仅通过了USML三个阶段的考验,还顺带着和ChatGPT硬扛了一把。

    不出意料,在这场比试中,DeepSeek进一步证明了人工智能系统在回答医学问题、模拟临床推理等方面实现了近乎专家的表现。这个由德国杜伊斯堡-埃森大学医学人工智能研究所(IKIM)、德国亚琛工业大学附属医院组成的研究团队,将该研究的预印本于2月6日发布在medRxiv上。

    研究者发现,DeepSeek-R1在基于事实的回忆和临床知识检索方面表现出色。

    USMLE有三个考试环节,第一阶段主要考基础医学,如微生物、病理、药理等;第二阶段考临床知识,含内科、外科、妇产科、小儿科等;第三阶段考的是临床实习后对于医学知识的进一步应用。

    研究人员称,DeepSeek在第一、二阶段中,其精确匹配性能明显超过ChatGPT。这也表明DeepSeek作为医学教学工具有很大潜力。

    不过在第三阶段临床决策方面,无论是DeepSeek,还是ChatGPT都出现力有不逮的状况。

    该研究显示,在需要综合多种临床因素的复杂患者病例中,例如为慢性疾病重叠的患者选择最佳管理策略,DeepSeek可能无法考虑患者偏好、症状演变或非典型表现等细微差别;在高风险场景中,ChatGPT可能给出听起来合理,但医学上不合适的治疗计划。

    无论是对DeepSeek,还是Grok的测试,都表明目前人类医生的专业经验还是至关重要,人工智能适合扮演最佳助手的角色。

    也就是说,将人工智能作为工具,集成到医疗工作流程中可以让医疗健康体系更高效,并且人类专业知识和人工智能支持的结合,对提高诊断准确性和治疗效果将是一场幸事。

    还需注意的是,众多人工智能的集中问世,也让一些问题更突出,也更紧迫。

    Grok的数据来源就引发了隐私问题的讨论。2024年10月,马斯克在他的X社交媒体平台上公开要求Grok的用户,上传他们的医疗图像并生成诊断结果。

    通过社交媒体平台上收集医疗数据的举动,让 Grok招来欧洲隐私监管机构的质疑,可能违反欧盟法规《通用数据保护条例》。

    在步入一个满屏都是讨论AI的时代,最好的、最坏的可能都会发生。如北京朝阳医院一位信息工作人员对《财经》所说:“AI在病历质控、自动生成等已有探索性的应用。现在都还在探索阶段,还需看后面落地的实际应用。”

  • 一文讲透关于DeepSeek的7个核心问题

    一文讲透关于DeepSeek的7个核心问题

    2月10日至11日,巴黎举办了人工智能(AI)行动峰会。《纽约时报》称,与过去一个月的所有AI活动一样,巴黎AI峰会上充满了关于中国人工智能企业深度求索(DeepSeek)的讨论,这家中国公司以其强大的推理模型震惊了世界。据《财经》杂志统计,百余家中国公司已经宣布“接入DeepSeek”,覆盖从芯片、算力服务商到AI用户到最终用户各级生态圈。

    开年复工后的第一次全员周会上,峰瑞科技组的同事们对DeepSeek进行了深入讨论。本文将通过七个关键问题,剖析DeepSeek爆火的原因及其带来的多维度影响:

    DeepSeek为什么这么火?

    DeepSeek真正的技术创新是什么?

    为什么是DeepSeek?

    Scaling law还成立吗?

    DeepSeek给其他模型厂商带来什么影响?

    DeepSeek对硬件生态带来什么影响?

    DeepSeek如何影响应用生态?

    此外,我们还在文末总结了部分与此相关的投资机会。

    在这个AI技术飞速发展的时代,DeepSeek的故事或许只是开始。

    01 DeepSeek为什么这么火?

    第一个问题,我们先来回答DeepSeek到底为什么这么火?

    从我们的观察来看,DeepSeek这一轮的爆火,有20%是得益于技术创新,80%是来自于它从开源生态中获得影响力和背后的中国元素。

    技术上,简单说,DeepSeek用极低的算力成本,实现了比肩全球一线预训练大模型的能力。以及,DeepSeek第一次真正公开了用强化学习(Reinforcement Learning,简称RL)做推理模型的可能路径。强化学习是一种机器学习方法,通过智能体(Agent)与环境(Environment)的交互,学习最佳策略。

    实话说,仅靠这些,DeepSeek可能还不足以引起全球范围内如此强烈的反应。

    更多的影响力其实要归功于这些创新背后的中国元素。某种程度上,由于海内外的信息差,中国团队这一次推出的大语言模型使人们惊讶——中国AI行业的发展情况可能与OpenAI所代表的最先进水平之间,没有想象中差距那么大。但同时,DeepSeek也引发了很多质疑和讨论。当然,这些都是短期影响。

    长期来看,DeepSeek的成功给中国带来了更多进行技术创新的信心,无论是投资人还是创业者,可能都从其中看到了更多的可能性。

    另外,开源这件事情功不可没。DeepSeek作为后来者,不像海外大厂,没有什么包袱,所谓“光脚的不怕穿鞋的”。DeepSeek几乎将其所有研究成果都直接开源,打破了OpenAI o1系列模型的垄断地位,这对整个圈子造成很大的冲击。

    小结

    所以,理性来看DeepSeek出圈这件事,市场情绪因素占大头。 当然,我们也不能否认DeepSeek团队确实在技术上做了很多创新。

    02 DeepSeek真正的技术创新是什么?

    DeepSeek从成立至今,一共发过9篇论文。其实在大模型技术圈子里,大家对DeepSeek的技术实力早有认知。

    DeepSeek技术创新的答案,在2024年底和2025年年初发布的两篇技术报告——《DeepSeek-V3 Technical Report》、《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》,以及它们推出的开源模型之中。

    从目前的观察而言,DeepSeek的技术贡献主要体现在工程上的创新。它没有发明新的范式,但在现有技术的基础上进行了大量优化。

    让我们着重看看让DeepSeek出圈的核心工作:

    一、DeepSeek V2

    2024年5月,DeepSeek发布了V2模型,将API(Application Programming Interface,应用程序编程接口)价格大幅降低,定价为每百万tokens输入1元人民币、输出2元人民币,直接将价格打到GPT-4的1/35。

    DeepSeek掀起了大模型市场的价格革命。据《21世纪经济报》报道,2024年5月,百度旗下文心大模型两款主力模型全面免费。阿里云紧随其后,将通义千问GPT-4级主力模型的API输入价格从0.02元/千tokens降至0.0005元/千tokens,降幅达97%。

    DeepSeek V2的性能已经接近GPT-4,成为性价比极高的选择。可以说,国内其他同行还在努力追赶GPT-4的性能时,DeepSeek已经凭借低价和高性能脱颖而出。

    二、DeepSeek V3

    DeepSeek V3在V2的版本上,进一步强化了降本增效的能力。V3相当于是对标OpenAI GPT4o的预训练大模型,它以极低的算力成本,实现了和其他模型同等甚至表现更好的结果。

    DeepSeek之所以能做到降本增效,可能要归功于团队在工程层面做了大量的工作和创新,比如,在算法软件框架以及配合硬件的实现方面。

    在软件上,核心有两点,一个是MoE(Mixture of Experts,专家混合模型)的专家模型架构,“用空间换时间”。

    2023年,法国AI公司Mistral AI最早大规模开源MoE模型,它曾经推出Mixtral 8x7B模型,采用了8个专家,每次推理时激活其中的2个专家。

    DeepSeek则增加了专家数量,缩小了每个模型的规模。虽然单个专家性能有所下降,但整体性能却因“人多力量大”而提升。

    具体来说,DeepSeek的MoE架构把前向推理网络划分成了1个共享专家以及256个独立专家。模型每次预测的时候,只会激活共享专家以及另外256个专家中的8个专家,大大降低了算力消耗。

    此外,DeepSeek还在训练过程中通过偏离函数,调整专家负载,避免出现“强者越强,弱者越弱”的马太效应。

    虽然MoE架构很有价值,但在不少应用场景里,Dense Model(单一专家模型)也有优势,比如面向B端的专用领域或者端侧小模型。所以,我们也不能完全下定论,认为MoE未来就会“一统江湖”。大家有各自不同的模型架构,选择的应用场景也不同。

    另一点,MLA(Multi-head Latent Attention,多头潜在注意力)是DeepSeek成为“价格屠夫”的核心技术之一,这种方法是“用时间换空间”。

    大模型推理离不开Attention计算,而Attention计算中,KV缓存(Key-Value 缓存)是主要的存储开销。在Transformer模型的自注意力机制中,输入元素会被转换成查询(Query)、键(Key)和值(Value)这三种类型。KV 缓存就是在推理过程中,把先前步骤计算得到的 Key 和Value矩阵缓存起来,避免在生成新token时重复计算整个序列的Key和Value。

    DeepSeek通过矩阵分解的方法,将KV缓存压缩后再投影回高维空间,从而大幅降低了存储开销。这种技术原理简单但非常有效,实现了推理价格骤降。

    MOE和MLA结合在一起,降低了模型对硬件算力和显存带宽的需求,因此,DeepSeek让整体成本下降了一个数量级。

    前面谈到的是软件架构上的创新,那么在硬件架构实现上,DeepSeek V3第一次公开了很多新的工作。比如,用低精度的FP8(即8位浮点数表示法,是一种用于提高计算效率和动态范围的数据格式)做了大量的计算工作。再比如,通过大量PTX(Parallel Thread Execution,是NVIDIA为其GPU设计的一种并行指令集架构)的底层开发能力,“压榨”硬件的性能,来降低计算和通信的开销。

    所以,从DeepSeek V3整体的工作来看,其实没有太多概念创新,大多是站在前人肩膀上,优化了MoE、MLA等已有的方法,但却有极高壁垒的工程创新。

    以及,还有一个问题值得我们思考——V3中的这些工作,是团队主动创新的结果?还是只是硬件资源受限情况下的被动选择?如果能有更多更强的算力资源,这些创新是否还会出现,以及是否还有必要?

    三、R1 Zero和R1

    接下来我们再看看R1 Zero和R1,它们是对标OpenAI o1系列的推理模型。自从o1发布之后,业界和学术界对它的实现方法有很多猜想,甚至还有人说OpenAI团队主动放出了一些不相关或错误的方向来误导大家。

    抛开这些猜测不谈,这次DeepSeek发布了R1,实实在在地通过自己的探索,用强化学习实现了比肩o1的推理大模型,并开源了相关的工作,非常厉害。从我们的观察来看,强化学习是通向AGI的一个递进路径,业界已经在尝试这个方向。

    为什么在当下,大模型们开始“卷”起了推理能力?

    这一趋势的背后,是大模型在开放性问题上难以超越人类的困境。尽管大模型在诸多任务上表现出色,但在需要深度推理和专业知识的复杂问题上,它们仍然面临巨大挑战。

    以GPQADiamond基准数据集为例,该数据集专门用于评估模型在复杂问题上的推理能力和专业知识水平。即使是经过博士学术训练的人类,回答这些问题的准确率大约在65%到70%之间。而目前,大多数大模型在这类问题上的表现,仍远低于人类水平。

    可喜的是,已经有少数领先的大模型,如DeepSeekR1、OpenAI o1,它们在GPQADiamond等难题上的表现,已经超过经过博士学术训练的人类。

    这种进步揭示了行业竞争的焦点正在从单纯的规模扩展转向更深层次的智能优化。推理能力的“内卷”,可能意味着大模型进入了新的发展阶段。

    同样是推理模型,R1 Zero和R1有所区别:

    R1 Zero是更纯粹的RL-based Model,用DeepSeek自己的预训练模型V3,没有经过任何人类知识的调教,直接用一些数学或者代码的这类有明确“ground truth”(真实值,在机器学习和计算机视觉领域,指的是数据集中每个样本的真实标签或结果)的问题,做强化学习,得到了不错的结果。

    R1相比R1 zero,用了更多工程化的方法,也加入了类似模仿学习的SFT(监督微调),进一步提升语言能力和全面性能,用户来说更好友好。

    具体的技术细节和评测结果不详细展开了,强烈建议大家去读《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》这篇论文,写得非常清楚、优美。

    某种程度上,DeepSeek R1也没有发明任何新范式。OpenAI已经给业界指明了方向,一个是用纯粹的强化学习而非人类反馈做后训练,来提升模型推理能力。

    另一个是Test-Time Compute的方法,通过延长推理时间,来提高输出质量。模型不是直接输出结果,而是先推理出中间结果,随着推理时间的增加,最终结果的质量也会提升。这一点在大家用DeepSeek过程中应该都有体会,就是看到的那个中间有点儿自言自语的思考过程。

    因此,DeepSeek核心的贡献是帮助强化学习、Test-Time Comput这两个范式快速出圈。相比其他模型厂商,它手比较快,而且直接把工作开源了。

    但无论是R1中的强化学习框架GRPO,还是上文提到的用很多数学、代码问题来做reward(奖励机制),都是一些相对常用的方法。DeepSeek R1更多还是靠V3的强大能力,能在有限的搜索空间内找到正确答案,从而帮助模型快速迭代和收敛。打个比方,如果基础模型不够好,可能需要从1万个样本中找到1个正确答案;而好的基础模型,则可以在100个样本中找到正确答案,从而大大加快迭代收敛的速度。

    小结

    总的来说,DeepSeek的技术贡献主要体现在工程上的创新。尽管它没有发明新的范式,但在现有技术的基础上进行了大量优化,特别是在强化学习应用于推理模型方面。我们需要以更理性的心态来看待DeepSeek爆火。

    03 为什么是DeepSeek?

    为什么是DeepSeek?

    首先,从整体上看,模型的发展速度虽然很快,但其实AI行业整体的创新速度放缓了,不同团队的认知差异也在缩小,大家能想到的方法正在逐渐收敛。这种现象跟国别无关,是全球学术界和产业界共通的情况。当技术创新变慢的时候,中国团队的工程能力优势就体现出来了。

    第二,我们也不能忽视DeepSeek背后的这家公司——幻方量化,以及其“工程基因”的影响。要做好量化交易,一方面需要有强大的策略,但另一方面,能否以最快的速度执行这些策略可能更为关键。哪怕只是纳秒级别的速度优势,也可能决定你在某次交易中能否赚钱。

    幻方量化的基因使得DeepSeek在底层硬件优化和开发方面拥有丰富经验,从而能够加速算法的执行效率。例如,幻方量化在过去面对复杂的量化交易任务时,可能需要对FPGA(现场可编程门阵列)进行深度定制研发,并在C语言中嵌入汇编语言,以提高硬件调度的效率。

    这些工程经验已经体现在DeepSeek的V3版本中。比如,在优化GPU时,DeepSeek大量使用了在量化中交易中经常用到的底层开发思路,选择“绕过CUDA”,直接使用PTX进行编程,从而进一步提升性能。

    第三点,DeepSeek的商业模式和开源文化,支撑了他们的长期发展。这种长期性能够帮助团队建立研究导向和创新的文化。DeepSeek可能没有短期的营收和商业化压力,反而能吸引更多真正想做事的人才,“做正确而非容易的事情”。

    小结

    DeepSeek的成功源于多方面的优势:在AI行业整体创新放缓的背景下,中国团队的工程能力优势凸显;孵化公司幻方量化在硬件优化和高效执行方面的经验影响了DeepSeek;DeepSeek的商业模式和开源文化,使团队能够专注于技术创新而非短期商业化压力。

    04 Scaling law还成立吗?

    DeepSeek发展到了今天,那么大模型的未来会走向哪里?Scaling Law(缩放定律)还会成立么?

    大模型最开始出现时,其根基就是Scaling Law。Scaling Law描述了随着数据量、计算资源和模型参数的增加,语言模型性能如何显著提升。具体来说,从GPT到GPT-4,研究人员通过增加更多的数据、算力和模型参数,使得模型效果显著提高。这种规律为设计更大规模的模型提供了理论依据,并成为近年来大模型发展的核心驱动力。

    那么,Scaling Law在未来是否仍然成立?我们可以从三个方面来看。

    一、预训练阶段:Scaling Law接近极限

    在预训练阶段,目前业界共识是Scaling Law已经接近极限。主要问题在于缺乏新的高质量数据。在这种情况下,盲目增加模型参数可能导致过拟合,也就是说,模型对于见过的数据表现很好,但泛化能力反而下降,从而影响模型的整体性能。例如,OpenAI在开发GPT-5时遇到的困难,也反映了这一挑战。尽管如此,研究者们仍在努力推进。

    二、后训练阶段:Scaling Law优势显现

    在后训练阶段(post-training),Scaling Law的优势变得更加明显。无论是传统的监督微调(SFT),还是基于人类反馈的强化学习(RL),都能看到这种优势。最新的DeepSeek和其他模型系列已经开始采用基于强化学习的后训练范式,显示出良好的规模效应。

    值得注意的是,在后训练阶段,目前所需的算力还相对较少,平均仅占预训练阶段的1%不到。当然,这一比例正在逐渐增加。据业内人士推测,R1的后训练算力占比已经接近10%。如果能进一步扩大后训练的规模效应,那么模型的整体性能有望得到进一步提升。

    然而,在后训练阶段,大模型仍面临一些挑战,比如,怎么定义reward,这是做好强化学习的关键;以及获取高质量的数据,特别是专业问答和CoT(Chain of Thought,思维链)数据。目前,学术界和产业界正在探索人工标注和合成数据的方法来解决这些问题。

    三、推理阶段:延长推理时间,提升性能

    在推理阶段,Scaling Law同样有所体现,比如在上文提到的Test-Time Compute上。模型的输出过程本质上是一个计算过程。如果允许模型有更长的思考时间,它可以通过反复尝试和自我修正来优化答案。例如,模型可能一开始给出简单的答案,但在中间发现错误并进行调整,最终得出更准确的结果。这种方法能够显著提高模型输出的准确性,也是Scaling Law的一个具体表现。

    小结

    总结来看,Scaling Law仍然成立,只不过应用范式发生了变化,其在后训练和推理阶段依然具有重要意义。

    05 Deepseek给其他模型厂商

    带来什么影响?

    首先,我们需要明确一点:DeepSeek目前主要是一个大语言模型,暂时不具备多模态的能力。在与其他有多模态能力的模型进行比较时,需要考虑到这一点。

    一、对海外大厂的影响

    对于海外的大厂,如OpenAI(GPT-4系列)、Anthropic(Claude 3.5)和Google(Gemini 2.0),这些公司在多模态能力、泛化能力以及工具链开发者生态方面仍然具有显著优势。它们有很多的储备技术,因为战略考虑可能暂时不会都放出来。此外,它们在算力资源上也有明显的优势。

    尽管DeepSeek引起了广泛关注,但我们仍需正视与这些海外一线公司的差距,实现真正的超越还有很长的路要走。

    就在2月18日, 马斯克的xAI 发布了更新版 Grok 3大模型。 在直播的现场演示中,Grok 3在数学、科学和编程基准测试中,击败了包括DeepSeek的V3模型和GPT-4o在内的多个模型。

    二、对国内模型厂商的影响

    在国内市场,DeepSeek对于对面向消费者的(ToC)模型厂商影响较大,对于面向企业的(ToB)模型厂商影响相对较小。

    在ToC领域,部分厂商可能会感受到较大的冲击。这些厂商面临的挑战更多在于开源与商业化的选择:如果保持闭源,是否能达到一线模型水平?如果选择开源,是否会颠覆现有的商业模式?

    不过,我们不能低估国内其他模型厂商团队的技术创新能力。比如Kimi最新发布的K1.5模型在学术界获得了很高的评价,其工程创新也非常值得学习。

    目前来看,ToB的模型厂商也受到了一定的影响。长期来看,企业客户会做出理性决策,但在短期内,可能受市场情绪影响,尝试使用DeepSeek。这有助于教育市场,但长期效果还需观察。

    此外,DeepSeek本身其实也要考虑如何持续“接住泼天的富贵”。未来,DeepSeek是否会通过融资扩大规模,还是继续保持小规模专注于研发?我们拭目以待。

    三、对开源社区的影响

    DeepSeek对开源社区无疑是利好的。DeepSeek爆火,将促使其他开源模型(如Llama)不断创新,而不是固守已有成果。这对整个社区的发展是有益的,同时也促进了闭源厂商的进步。

    四、对小模型公司的影响

    DeepSeek曾在论文中展示了通过大模型的能力蒸馏(distillation)来提升小模型推理能力的可能性,并同步开源了基于通义千问Qwen或Llama的蒸馏模型。这表明,优秀的“老师”模型可以更高效地指导小模型学习。

    这将对自研模型的中小企业产生积极影响。尤其是在端侧部署的应用中,无论是C端还是B端应用,或许能借助这一方法提升性能。

    小结

    整体来看,DeepSeek虽然在多模态等方面有欠缺,但其无疑在推动行业的发展。我们既不能低估国内团队的技术创新能力,也需正视与这些海外一线公司的差距,想要实现真正的超越,我们还有很长的路要走。

    06 DeepSeek对硬件生态带来什么影响?

    接下来,我们讨论一下DeepSeek对硬件生态的影响。在DeepSeek最火的那几天,它对整个美股市场,尤其是英伟达的股价造成了短期冲击。那么,未来DeepSeek是否会挑战英伟达的地位?

    要回答这个问题,我们首先需要了解英伟达的核心壁垒是什么。英伟达的核心壁垒不仅仅在于其单芯片的设计能力,尽管这一点已经非常强大。更重要的是,英伟达通过其芯片互联能力(如InfiniBand、NVLink以及强大的软件生态系统CUDA)形成了一个坚固的生态壁垒。这种生态壁垒是英伟达最核心的能力之一。

    了解了英伟达的核心竞争力后,我们可以分析出DeepSeek对英伟达的影响。首先是正面影响:

    一、DeepSeek的成功教育了市场,增强了人们对AI应用的信心,并吸引了更多的初创企业尝试开发AI应用。

    据业内人士消息,自DeepSeek发布以来,市场上H100和H200等高端GPU的价格有所上涨,这表明更多公司愿意购买这些硬件来开发自己的模型和应用。

    二、推动通用GPU的需求。DeepSeek这样的厂商,持续在模型架构方面进行创新,这对英伟达这样的通用GPU制造商是有利的。因为通用GPU更适合用来尝试新的方案和架构,而一些专用芯片可能没那么适合。

    然而,DeepSeek也给英伟达带来了一些负面影响,比如英伟达的市场定价策略可能会受到冲击。

    原因在于,首先,DeepSeek采用的Mixture of Experts (MoE) 架构显著降低了对芯片间互联能力的要求,从而减少了对高端互连技术的依赖。如果越来越多的模型厂商开始采用MoE或其他类似的架构,将会带来新的硬件机会。

    其次,DeepSeek提供了潜在“绕过”CUDA的可能性。DeepSeek提出了适配其模型的硬件架构设计需求,暗示着未来“绕过”英伟达的CUDA生态系统的可能性。

    同时,国产芯片对DeepSeek模型的快速适配,也反映了中国硬件行业的潜力。但需要注意的是,DeepSeek团队并没有直接绕开英伟达。DeepSeek使用了比CUDA更底层的编程语言PTX,以便于更好地发挥出硬件性能,而PTX是英伟达的核心技术。

    DeepSeek是否推动了除英伟达以外的AI芯片行业的创新机会?这也是我们非常关注的一个热点方向。

    短期来看,DeepSeek确实带动了许多低性能卡的应用,包括一些国产卡。只要企业具备足够的工程优化能力,这些卡就能够被用起来,我们也能实现软硬件闭环式的自主创新。

    长期来看,AI芯片行业无疑存在新的机会。除了近期备受关注的新硬件架构(如3D堆叠、大规模互联技术和高显存设计)外,编译和软件生态的建设也至关重要。正如我们在讨论英伟达壁垒时所提到的,仅有单芯片能力和互联能力是不够的,整个软件生态系统才是决定其长期成功的关键因素。

    小结

    总的来说,DeepSeek一方面对英伟达带来了挑战,另一方面,也为整个AI芯片行业带来了新的机遇和发展方向。对于行业参与者来说,如何适应这种变化并找到适合自己的发展路径,将是未来需要重点考虑的问题。

    07 DeepSeek如何影响应用生态?

    我们再来讨论DeepSeek对整个应用生态的影响,可以从三个方面来看:

    一、提供了低成本方案,完成了市场教育

    首先,DeepSeek提供了一种非常低成本的方案,这显然能够为应用(无论是ToC还是ToB)带来更高的投入产出比,并助推更多的行业应用落地。

    在短短几周内,DeepSeek完成了全市场的教育,使政府、企业高层管理人员以及普通用户都开始使用相关的大模型。甚至我们的父母都开始用起了大模型。

    然而,在短期内,市场可能会存在高估的情况。尤其是在B端,实际落地效果可能会与预期有所偏差。从我们问到的几家企业的反馈来看,客户的呼声很高,但实际测试结果显示,DeepSeek在某些任务上的表现,可能并没有外界传闻的那么领先。

    二、验证了大模型蒸馏小模型的可行性

    其次,DeepSeek R1验证了大模型蒸馏小模型是可行的,这对于端侧模型部署和应用有很大推动作用。无论是在PC、手机还是其他智能硬件上,部署成本的大幅降低,将推动更多新应用落地。这对于我们投资在端侧部署的应用有重要意义。

    三、助推强化学习这种计算范式

    从更长期一些来看,DeepSeek影响了强化学习这一计算范式。R1已经验证了这种范式,真正公开了用强化学习来做推理模型的这个可能的路径。

    但目前,强化学习的应用范围主要局限在数学或代码等相对客观的领域。未来,这种计算范式是否能够扩展到物理世界,并解决更多现实世界的推理问题,以及如何应用于AI agent和具身智能,是非常令人兴奋且值得探讨的方向。

    小结

    通过对以上七个问题的探讨,我们可以看到,DeepSeek对AI芯片行业和应用生态产生了深远的影响。

    毫无疑问,DeepSeek的贡献令人敬佩。但当前市场是否明显过热?或许对于投资人、创业者以及使用大模型的朋友来说,我们不妨让子弹再飞一会儿,冷静观察一段时间。与此同时,我们期待中国市场能诞生更多像DeepSeek这样的原始创新成果。

    08 投资机会

    一、大模型竞争进入下半场

    大模型的竞争已进入下半场。

    在丰叔看来,大模型下一步会向轻量化、垂直化、端侧化这三个方向发展。轻量化意味着模型和硬件成本需要收敛,不然能用得起的人有限。垂直化则意味着模型需要在特定能力上收敛,而不是指望一个超大模型解决所有问题。端侧化是指模型必须放到手机、手表、耳机等终端设备上,才能真正实现技术的普及。

    随着下游应用逐步实现规模化落地,模型训练、微调和推理效率成为行业关注的焦点。

    以DeepSeek为代表的创新实践表明,强化学习和长文本生成能力有助于提高大模型输出质量、提升小模型性能。尽管MOE架构增加了软件系统的复杂性,但它显著优化了硬件带宽需求,降低了硬件门槛,使得成本更低的硬件也能高效运行模型。

    未来,随着模型能力的进一步提升和总成本的持续下降,AI普惠将成为下一阶段的核心目标。技术的普及将推动大模型在更广泛的应用场景中落地,创造更多商业与社会价值。

    二、人机交互发生变化,AI落地的应用临界点似乎已经到来

    当下,人与信息、人与机器的交互方式正在发生深刻变化。这种变化将催生新的信息分发渠道和流量入口,推动用户界面和服务形式的创新。另一方面,随着人工智能能力的不断增强以及成本的降低,许多行业都在积极探索AI技术的应用落地。

    在这样的背景下,我们应当关注一些在传统软件时代难以实现的“新物种”,例如:

    跨领域结合的软件或Agent:通过软件与硬件的深度融合,Agent能够实现更强的独立性和更丰富的功能,从而为用户提供更高效、更智能的服务。

    新形态的个人交互终端:随着数字化的进一步普及和多模态技术进步,AI有望接入更多数据,成为人类的“外脑”,帮助我们处理记忆、理解甚至是决策等任务。

    新型人力服务外包:将软件能力转化为服务形式进行外包,提供更具创新性和灵活性的新型外包服务,满足不同行业的需求。

    未被软件化的行业:这些领域中蕴含着丰富的AI落地机会,值得我们深入挖掘和探索。

    展望未来,随着供应链能力的不断提升,中国的AI技术有望进一步拓展海外市场,实现全球化布局。

  • DeepSeek冲击波,阿里、小米、字节上演AI人才争夺“三国杀”

    周四,美国苹果和谷歌应用商店都放开了对TikTok的下载限制,重新上架了这款应用。几周前,两家平台根据美国相关禁令下架了TikTok。在DeepSeek出圈火爆全球后,国内互联网与科技大厂加快了AI人才争夺。继小米和字节跳动相关动作之后,《科创板日报》了解到,阿里AI To C业务近期开启大规模人员招聘,开放招聘岗位达到数百个,集中在AI大模型相关的产品、技术研发岗位。

    近期阿里在AI和云计算方面动作频频。在确认与苹果的手机AI合作后,而马云也在近期多次露面,上周现身夸克所在的阿里智能信息事业群办公区后,又于2月17日在北京出席了民营企业座谈会。

    据悉,此次阿里对外招聘岗位数量达数百个,其中AI技术、产品研发岗位占比达到90%,主要主要分布在AI产品和AI技术研发方向,将重点投入到文本、多模态大模型、AI Agent等前沿技术与应用的相关工作中。

    小米、字节与阿里巴巴上演AI人才争夺战

    在 AI 领域蓬勃发展的当下,人才成为各企业竞争的关键资源。近期,小米挖角 DeepSeek 天才少女罗福莉的消息引发广泛关注。罗福莉,这位 95 后 AI 新星,本科毕业于北京师范大学计算机专业,硕士深造于北京大学计算语言学专业。其学术成绩斐然,在国际顶会 ACL 上一次性发表 8 篇论文,其中 2 篇为第一作者,提出的词义消歧方法和文本风格转换框架在业界引发轰动。

    就在昨天,字节跳动也向《科创板日报》记者证实,在谷歌工作长达17年的“Google Fellow”吴永辉已离开谷歌,正式入职字节跳动。吴永辉在字节跳动将担任大模型团队Seed基础研究负责人,专注大模型基础研究探索、AI for science等偏长期的研究探索工作,汇报给字节跳动CEO梁汝波。

    DeepSeek在资金与人才并不显优势的情况下,取得全球性轰动效应,让所有的大厂都受到了震动。梁汝波在字节跳动新一期全员会上称,DeepSeek R1创新点之一的长链思考模式不是业界首创。去年9月OpenAI发布长链思考模型、成为行业热点后,字节意识到技术重大变化,但跟进速度不够,如果当时及时关注到,有机会更早实现。 他提出2025年重点目标:追求 “智能”上限。

    相比之下,阿里在引进AI人才方面一直不手软。2月初,全球顶尖人工智能科学家、前Salesforce集团副总裁许主洪出任阿里集团副总裁,负责AI To C业务的多模态基础模型及Agents相关基础研究与应用解决方案。内部人士透露,许主洪目前正在筹备规模超百人的顶级AI大模型研究团队,推动前沿科研成果向实际应用解决方案的转化。

    阿里巴巴在AI领域布局多年,但过去主要集中在B端业务。2024年第三季度财报显示,阿里云整体收入296.1亿元,同比增长超过7%,经调整EBITA利润达到26.61亿元,同比增长89%。阿里云的业绩由公共云业务的双位数增长带动,其中包括AI相关产品采用量的提升,AI 相关产品收入连续五个季度实现三位数的同比增长。

    从去年年底开始,阿里在AI To C业务发力,把阿里旗下AI应用“通义”并入阿里智能信息事业群,由该部门扛起阿里AI To C的重任。就在上周,阿里巴巴创始人马云现身还现身夸克办公区,与员工打招呼交流。

    “AI驱动”战略下阿里全力由电商拥抱科技

    近期,阿里方面还确认了与苹果的合作,将为苹果在中国的iPhone用户开发新的AI功能。除了手机外,阿里也在推动通义系列大模型落地AI眼镜,包括与消费级AR品牌雷鸟创新RayNeo签约,为其AI眼镜提供独家定制的技术支持。天猫精灵团队也与夸克产品团队在融合工作,探索AI眼镜等新硬件方向。

    在云基础设施方面,阿里云今日宣布墨西哥数据中心正式开服,这是阿里云在拉美区域的首个数据中心,标志着进军南美的重要一步。去年五月,阿里云宣布新一轮全球基础设施扩建计划,将在泰国、墨西哥、马来西亚、菲律宾和韩国投资新建数据中心。目前,阿里云在全球29个地域覆盖87个可用区。

    2月20日,阿里巴巴将公布2025财年第三季度业绩。摩根士丹利发表报告称,预计财报中将提及未来的资本支出计划和公共云收入展望,如果阿里巴巴宣布将加大AI相关投资,将进一步提升整个数据中心行业的新订单预期。

    对于阿里而言, 与苹果的合作其提出“AI驱动”战略以来的一次重要商业突破。谈及阿里与苹果的合作前景,Countpoint相关分析师认为,未来苹果在中国可能会倾向于采用多供模式,会引入更多的大模型服务商。但阿里作为此次合作的先行者,将享有一定时间的独家合作,随着市场的不断发展,百度、字节跳动、DeepSeek 等公司也可能成为潜在的供应商。“我们预测支持中文的 Apple Intelligence,也是首个支持非英文的版本将在2025年内正式发布。”

    艾媒咨询CEO张毅对《科创板日报》表示,与苹果合作后,未来阿里的AI产品都有了与C端用户亲密、直接的接触以及真实的应用场景。这些对于阿里未来的商业转化具有较大的价值。此外,阿里不只是电商平台,其背后也有强大的生态,比如高德、文娱等,如果能与苹果的相关数据形成共振,特别是数据资源方面的商业合作,有巨大的想象空间。

    不单单是阿里,跟阿里同根的蚂蚁集团近期也动作频频。近日,有招聘平台信息显示,蚂蚁集团开放招聘具身智能人形机器人系统和应用等岗位。蚂蚁集团相关人士表示,蚂蚁集团去年注册成立了蚂蚁灵波科技有限公司,聚焦具身智能技术和产品研发。“蚂蚁集团在持续布局和加大AI投入。 ”

  • 第一批DeepSeek开发者,已经开始逃离了

    第一批DeepSeek开发者,已经开始逃离了

    在DeepSeek服务繁忙的回复背后,不只是普通用户的焦急等待,当API接口响应突破临界阈值,DeepSeek开发者的世界,也出现了持续震荡的蝴蝶效应。

    1月30日,接入DeepSeek的base北京的AI开发者林森,突然收到程序后台报警,还没来得及为DeepSeek的出圈高兴几天,林森的程序便因为无法调用DeepSeek,后台被迫瘫痪了3天。

    一开始,林森以为这是因为在DeepSeek的账户余额不足导致的。直到2月3日春节假期过后返工,他终于接到了DeepSeek暂停API充值的通知。此时,尽管账户内余额充足,他也无法再调用DeepSeek了。

    林森接到后台通知的第三天,DeepSeek官方于2月6日正式对外发布公告,宣布暂停API服务充值。近半个月过去,截至2月19日,DeepSeek开放平台的API充值服务仍未恢复正常。

    图注:DeepSeek开发者平台仍未恢复充值 图源:字母榜截图

    在意识到后台瘫痪是由于DeepSeek服务器过载,而自己作为开发者,长达数天,却没有收到任何提前告知,更没有任何售后维护服务时,林森有种“被抛弃”的感觉。

    “就像家门口有一家小店,你是老顾客,办了卡,一直和老板相处很好。突然有一天,小店被评为米其林餐厅,老板把老顾客抛在一边,之前办的卡也不认了。”林森形容道。

    作为2023年7月开始部署DeepSeek的第一批开发者,林森为DeepSeek的出圈感到振奋,但如今,为了维持运转,他只能切换至ChatGPT,毕竟“ChatGPT虽然贵一点,但至少稳定。”

    当DeepSeek从口口相传的小店变成网红打卡的米其林餐厅,更多和林森一样调用无门的开发者们,纷纷开始逃离DeepSeek。

    2024年6月,小窗AI问答机在产品早期阶段就接入了DeepSeek V2,让小窗合伙人娄池颇为惊艳的是,那个时间点,DeepSeek是唯一能全文背诵《岳阳楼记》不会出错的大模型。因此,团队用DeepSeek承担了产品最核心的功能角色之一。

    但对于开发者而言,DeepSeek虽好,稳定性却始终有所欠缺。

    娄池告诉字母榜(ID:wujicaijing),春节期间,不仅是C端用户访问繁忙,开发者们也时常无法调用DeepSeek,团队决定选择几个已经接入DeepSeek的大模型平台同时调用。

    毕竟,“现在已经有几十个平台有满血版DeepSeek R1了。”用这些大模型平台的R1,配合Agent和Prompt,也能满足用户的需求。

    为了争抢DeepSeek外溢而出的开发者群体,有头部云厂商开始面向开发者频频举办活动,“参与活动就免费送算力,如果不大批量调用,小开发者几乎能免费使用。”易标AI技术总监杨惠超表示。

    不过,DeepSeek热度当前,在第一批开发者们出逃之际,更多开发者仍在蜂拥而至,希望蹭到前者的流量红利。

    郗鉴创业的项目,是通过调用DeepSeek的API来进行角色扮演的AI陪伴APP,2月2日上线首周就获得了约3000名的活跃用户。

    尽管有用户反馈DeepSeek的API调用时有报错,但已经有60%的用户希望郗鉴尽快推出安卓版。在郗鉴的社交媒体后台,每天都有至少几十个用户私信要下载链接,“搭建在DeepSeek上的AI陪伴平台”,无疑成了APP出圈的新标签。

    经字母榜统计,在DeepSeek官网内收录的接入DeepSeek的各类APP名单,2025年前APP名单仅有182行,如今已经扩展到了488行。

    一面是DeepSeek成为“国产之光”爆火出圈,7天涌入1亿用户,另一面,则是第一批部署在DeepSeek上的开发者,正因为过载人流导致的服务繁忙,而纷纷转投其他大模型。

    对开发者而言,长时间的服务异常不再是简单的故障,而演变成为代码世界和商业逻辑间的裂缝,他们被迫在迁移成本下进行生存演算,无论是涌入,还是逃出,开发者们都需要面对DeepSeek爆火带来的余震。

    A

    春节期间小程序后台被迫瘫痪三天后,至大年初六,为了保证程序正常运转的林森,离开已经部署一年多的DeepSeek,转回了ChatGPT。

    即使API调用价格高了近10倍,但此时保证服务的稳定,成了优先级更高的选项。

    值得注意的是,开发者离开DeepSeek转向其他大模型,并不如用户在APP内切换调用模型一般轻松。“不同的大语言模型,甚至是同一个语言模型的不同版本,对于提示词的反馈结果都有细微的差别。”即便林森仍在持续调用ChatGPT,将所有关键节点从DeepSeek迁移ChatGPT,并保证稳定且高质量的内容反馈,仍然花了他半天多的时间。

    切换这个动作本身也许只需要两秒钟,但“更多开发者,换一个新模型要花上一个星期反复调整提示词,并重复测试。”林森告诉字母榜,

    在林森这样的小开发者们看来,DeepSeek服务器不足可以理解,只是如果能提前通知,能避免许多损失,无论是时间成本,还是APP维护成本。

    毕竟,“登录DeepSeek开发者后台需要手机号注册,只需要一个短信,就可以提前告知开发者。”如今,这些损失将由曾在DeepSeek默默无名时就开始支持他们的开发者自己承担。

    当开发者和某个大模型平台深度耦合,稳定性无疑成了不必宣之于口的契约,一个频繁波动的服务接口,足以让开发者重新审视对平台的忠诚度。

    就在去年,林森在调用Mistral大模型(法国头部大模型公司)时,因为Mistral账单系统错误而重复付费,在他发出邮件后,Mistral不到1小时就纠正了问题,并附上了100欧元的代金券作为赔偿。这样的应对,也让林森产生了更多信任。如今,他也将一部分服务迁回到了Mistral。

    易标AI技术总监杨惠超则在DeepSeek V3 版本发布之后,就开始酝酿一场逃离。

    不用DeepSeek来写诗或者吐槽,如果用DeepSeek来写标书呢?负责公司内AI标书项目的杨惠超,在DeepSeek推出V3版本后已经着手寻找替代方案。对他来说,在标书这样的专业领域,“DeepSeek稳定性越来越不足。”

    DeepSeek R1版本火出圈的推理能力,并不吸引杨惠超。毕竟,“作为开发者,软件主要的推理能力是靠程序和算法,并不是太依靠模型的基础能力。底层即便用最老的GPT 3.5,依靠算法纠正都可以产出一个很好的结果,模型只要回复答案稳定就可以。”

    在实际调用过程中,DeepSeek在杨惠超眼中,似乎更像是一个聪明却会偷懒的“好学生”。

    升级V3版本后,杨惠超发现,DeepSeek对一些复杂问题有了更高的回答成功率,但稳定性却也攀升到了难以接受的程度,“现在问10条问题,至少有一条输出不稳定,在要求生成的内容之外,DeepSeek往往喜欢自由发挥,额外生成和问题无关的内容。”

    比如,标书内不允许出现错误字符,同时,大模型返回的结果,开发者们往往指定用Json 结构(用指令每次调用大模型使得稳定返回固定字段)去输出数据,便于后续函数调用,但出现错误或者不准确,都会导致后续调用失败。

    “DeepSeek R1,或许相对此前的V3版本,推理能力提升了很多,但是稳定性达不到商业化的水准。”在@生产力Mark账号内,杨惠超提到。

    图注:DeepSeek V3生成过程中出现乱码 图源:@生产力Mark账号

    作为2024年初,DeepSeek-coder时期就加入的第一批用户,杨惠超并不否认DeepSeek是一个好学生,只是如今,为了保证生成标书的质量和稳定性,杨惠超只能将目光转向国内其他更偏B端用户的大模型企业。

    毕竟,曾经被称为AI界拼多多的DeepSeek,正是凭借着性价比的标签,迅速聚集起一批中小AI开发者。但现在想直接稳定地调用DeepSeek,就必须进行本地部署。“部署一个 DeepSeek R1,需要 30万 ~ 40 万元的成本,如果用线上的 API计算,30万元我一辈子都用不完。”

    既不够便宜,又不够稳定,调用无门的杨惠超们,正在批量离开DeepSeek。

    B

    曾经,林森们是第一批坚定选择DeepSeek的人。

    2024年6月份,林森在开发自己的AI 小程序少年听世界时,曾经对比了当时国内外几十家大模型平台。他需要用大模型每天处理数千条新闻,并且筛选、排序,找出适合青少年听的科技、自然新闻,并且对新闻文字进行处理。

    这不仅要求大模型聪明,还得便宜。

    涉及到每天数千条的新闻处理,对token的消耗极大,对独立开发者的林森来说,ChatGPT模型很贵,只适合处理核心环节,对大量文本的快速筛选和分析,还要靠别的价格更低的大模型做支持。

    同时,无论是国外的Mistral、Gemini ,还是ChatGPT,调用都很繁琐:你需要在国外有一个具体的服务器,还要做中继站,同时需要用国外的信用卡购买token。

    林森便是通过英国朋友的信用卡,才能在ChatGPT账户完成充值。而一旦服务器在海外,API 响应速度也会有所延迟,这都让林森将目光投向国内,寻找一款ChatGPT平替。

    DeepSeek让林森颇为惊艳。“当时DeepSeek并不是最有名的,但却是反馈最稳定的。”以每10秒请求一次API调用为例,其他国内大模型100次内可能有30%的时候,不返回任何内容,但DeepSeek次次返回,并都能维持不逊色ChatGPT和BAT们大模型平台的回复质量。

    而相比起ChatGPT和BAT们的大模型API调用价格来说,DeepSeek真的太便宜了。

    林森将大量新闻阅读和初步分析的工作交给DeepSeek后,发现DeepSeek的调用成本10倍低于ChatGPT。经过指令优化后,每天调用DeepSeek的成本低到2-3元,“可能跟 ChatGPT相比,它不是最好的,但DeepSeek的价格是极低的,对于我的项目来讲,它的性价比非常高。”

    图注:林森用大模型收录新闻并分析(左) 最终呈现在少年听世界小程序(右) 图源: 林森提供

    性价比,成了开发者们选择DeepSeek的首要原因。2023年,杨惠超一开始将公司的AI项目从ChatGPT 切换到了Mistral,主要便是为了控制成本。随后2024 年 5月份DeepSeek推出V2版本,将API打到了2元每百万token,这无疑是对其他大模型厂商的降维打击,这也成了杨惠超将公司做AI标书工具的项目切换到DeepSeek的缘起。

    同时,经过测试后,杨惠超发现,国内早已靠云服务在B端吃下市场的BAT们,“平台太重了”。

    对于易标AI这样的初创公司来说,如果选择BAT,会面临云服务的捆绑消费。对于只是简单调用大模型服务的杨惠超来说,无疑DeepSeek的 API 调用更加省事。

    在迁移成本上,DeepSeek也胜了一筹。

    无论是林森还是杨惠超,初始的APP开发都是基于OpenAI 的接口形式,如果切换到BAT们的大模型平台,都要把底层重新开发一遍。但DeepSeek兼容 OpenAI like接口,切换大模型只需要修改平台地址,“1分钟无痛切换。”

    小窗AI问答机正式销售的第一天就搭载了DeepSeek,并将5个核心角色中语文和作文指导的角色交给了DeepSeek进行构建。

    作为合伙人,娄池也在去年6月就被DeepSeek惊艳到。“DeepSeek在中文理解上能力很棒,是那个时间点唯一全文背诵《岳阳楼记》不会出错的大模型。”娄池告诉字母榜,相比起其他大模型中规中矩、班味十足的文档式输出,用DeepSeek教孩子写作文,往往赢在了写作的想象力上。

    在社交媒体风靡用DeepSeek写诗、写科幻小说之前,DeepSeek的华丽文风,就让小窗AI团队眼前一亮。

    对于开发者们来说,他们仍在期待DeepSeek恢复调用,眼下无论是迁移到BAT们部署了满血版DeepSeek R1的平台,还是转向其他大模型厂商,都似乎是“菀菀类卿”。

    C

    但竞争对手正在努力追平DeepSeek深度推理的出圈特长。

    国内,近期百度、腾讯都陆续在自研大模型中加入深度思考能力;国外,OpenAI也在2月紧急上新“Deep Research”,把推理大模型的思考能力用于联网搜索,并将对Pro、Plus和Team用户开放。谷歌人工智能实验室(Google DeepMind)也在2月发布了Gemini 2.0模型系列,其中2.0 Flash Thinking实验版本则是一款增强推理能力的模型。

    值得关注的是,DeepSeek仍然以文本阅读为主,但不管是ChatGPT还是Gemini 2.0,在支持深度思考之余,都已经将推理能力引入多模态,支持视频、语音、文档、图片等多种输入模态。

    对DeepSeek来说,在追赶多模态之余,更大的挑战还来自竞争对手在价格上的逼近。

    在云平台部署侧,一众头部云厂商都选择接入DeepSeek,一边分食流量,一边靠云服务绑定客户。对DeepSeek大模型的调用,某种程度上甚至成了绑定企业云服务的“赠品”。

    百度创始人李彦宏近期提出,在大语言模型领域,“每12个月,推理成本就可以降低90%以上。”

    在推理成本下降的趋势下,BAT们的API调用价格持续走低已成必然,DeepSeek的性价比优势,正在迎来大厂新一轮价格战的压力。

    不过,大模型API价格战只是起步,面向开发者,大模型厂商们还拼起了服务。

    林森接触过大大小小众多的大模型平台,让他印象深刻的是,某科技大厂会有专门的客户经理进行对接,无论是不稳定还是出现技术问题,都会主动和开发者联系。

    而尽管作为一个开源的大模型平台,目标是为开发者提供更普惠的AI支持,DeepSeek甚至在官网没有面向开发者出具发票的入口。

    “每次API充值完,不像其他大模型平台一样可以直接在后台开发票,DeepSeek需要绕到官网外,添加客服企业微信开具发票。”杨惠超告诉字母榜,无论是价格还是服务,DeepSeek“性价比”的标签,似乎都有点立不稳了。

    某头部大厂AI产品经理告诉字母榜,有的互联网公司leader坚持用DeepSeek替换原有大模型,完全不管替换模型重新调整Prompt所耗费的时间。同时,即便满血版的DeepSeek R1,也有不少通用能力如‌Function calling等并不支持。

    相比起用云服务跑通了B端服务场景的BAT们,在便捷度上,DeepSeek仍然差着AI大厂一截。

    只是DeepSeek的流量效应暂未褪去,赶潮人依然众多。

    有部分公司宣称接入DeepSeek,只是开始调用API,充值了几百块。有的公司公告部署了DeepSeek模型,但其实只是让员工看了看B站教程,下载了一键安装包。在这波DeepSeek热潮里,泥沙俱下,鱼龙混杂。

    潮水终将褪去,但DeepSeek要做的功课显然更多了

  • 只花30分钟,我真用DeepSeek磕出了一款游戏,能去大厂了吗?

    只花30分钟,我真用DeepSeek磕出了一款游戏,能去大厂了吗?

    “让人始料未及的是,哪怕游戏业早已将AIGC奉为圭臬,但变革当头,我们仍会懊悔过去对AI的想象竟如此贫瘠。”

    把时间拉回到数天前,或许是受到国产AI大模型DeepSeek触动,心动CEO Dash    (黄一孟)在X上分享了现阶段对AI应用场景的一些看法。

    他提到:“理论上从现在开始,    公司里不应该有任何人的工作与AI无关。无论工作内容是否由AI产出,至少工作结果要由AI检查一轮。”在笔者印象中,这似乎是自蔡浩宇、冯骥之后,又一位行业大佬公开表示对AI的强烈看好。

    需要注意的是,这段时间众多游戏人下场力挺DeepSeek,只是当代AIGC大流行的一处缩影。在过去一个月时间里,被冯骥评为国运级科技的DeepSeek,正不断冲刷游戏人对AI技术的固有认知。

    例如在最为活跃的民间应用层面。明明该技术出圈还没过多久,    但诸如“小白两天从0到1做出3D射击游戏”、“DeepSeek+AI全家桶研发游戏”、“0基础靠嘴皮子做游戏”、“DeepSeek+Unity3分钟生成完整游戏代码”等由玩家主导的教程视频,却如同雨后春笋般冒出。

    而其中让我感触颇深的是,相关视频的评论区正构成一幅戏剧性拉满的“绝景”:

    一边是游戏爱好者兴奋地摩拳擦掌,另一边却是打工人苦涩的自我解嘲。在35岁笑话的无可奈何中,去年蔡浩宇曾提到的“99%的普通游戏从业者不妨转行”暴论,似乎正一步步映入现实。

    毫无疑问,不断进化的AIGC技术,已经为整个游戏行业蒙上一层患得患失的雾霾。但身处风云骤变的大盘环境之中,更加注重当下的基层游戏人,脑海中萦绕的无非还是那个老套的话题——

    在DeepSeek火爆全网后,“机器吃人”的故事,距离我们还有多远?

    真变天了?AI游戏成本骤降90%

    近期关注DeepSeep的朋友可能会发现,在业界大肆吹捧DeepSeep有多牛逼之余,大众的注意力还会似有似无地往另一个话题偏移——    过去两年里,AI迭代的速度到底有多快?

    一个案例可以说明这点。在B站斩获超120万播放的《我让DeepSeek做射击游戏!他杀疯了!我沉迷了…》视频中,这位博主曾提到一个有关AI迭代速度的有趣观察。

    他发现,半年前的大模型死活只愿意用Pygame这种简单的框架去推进游戏研发。但半年之后,AI已经将Unity列入首选项。而AI所能实现的效果,也从最初的4399简陋版小游戏,跨越至如今更为复杂的3D大作。

    视频最后他也强调,“我相信如果再给AI一点时间,以后我们每个人想玩什么游戏,你说句话就能生成出来了。”虽然如今的AI技术要想达到“三生万物”的境界还比较遥远,但这位博主的发言也揭示了AI目前最令人胆寒的特性——它的迭代速度已经来到一个夸张的地步。

    就拿眼下已经成为2月主线的DeepSeek来说。    要论这些年AI最为显著的技术进步,那么”使用成本”与”内容精度”,无疑是最具说服力的两大板块。

    首先在困扰无数厂商的成本方面。在DeepSeek之前,市面上传统大语言模型的使用成本其实并不便宜。

    以去年行业颇为出圈的《1001夜》为例。作为一款对话式AI驱动的产品,玩家每次通关流程不长的《1001夜》,开发者都要为此付出1元的AI使用成本。面对每位玩家动辄4到5次的通关次数,迫于成本压力,团队只能暂时给游戏设置一个每天可游玩的额度上限。

    (当时《1001夜》只是一个流程不长的Demo版本,成本压力就已经如此之大……)

    在大语言模型已然成为创作领域必备工具的当下,《1001夜》所面临的成本挑战,也同样是AI深度游戏化进程中亟待突破的瓶颈。然而这一局面在2023年5月迎来转机——随着DeepSeek等新一代推理模型的问世,这项技术为长期困扰内容创作者的开发成本难题提供了全新解法。

    简单来说,去年DeepSeek就通过独创的MLA架构和MoE稀疏结构,让训练显存占用降至传统模型的5%-13%,最终实现推理成本低至每百万Token仅1元人民币。放在当时,这个价格仅是Llama3的七分之一,GPT-4 Turbo的七十分之一。

    恰巧,Open AI创始人Altman前不久刚露过一次面。据Altman提到,GPT-4在2023年初的使用成本,相比GPT-4o在2024年中期,其每个token的价格已经下降约150倍。这无疑是一组相当夸张的数据。

    考虑到圈外人对这些弯弯绕绕不太敏感,一位熟悉AI行业的华南游戏人告诉我:    “最初AI还比不上人工时,要想生成10万字可用的剧情脚本,成本足够养活两个文案策划。但现在同量级任务交给DeepSeek,只够买杯奶茶。”

    从某种程度上看,眼下不断降低的AI使用成本,已经揭示了游戏行业未来即将由AI主导。毕竟仅仅只是过了2年时间,AI技术的成本曲线就能以十倍乃至百倍的斜率不断下探,甚至还能用“奶茶”为单位去丈量个别职能岗位。可想而知,在强调“降本增效”的游戏行业面前,    没有任何一家公司能够抵挡“性价比”本身所带来的极致诱惑。

    例如前不久3D AI乙游《如意情探》的Jaz就在游戏茶馆的采访中透露:“DeepSeek现在的调用成本大概是我们之前使用模型成本的1/20。按照以前的商业模式,只有中氪和高氪玩家才能获得的最佳体验,但现在低氪或零氪也有机会享受得到。”

    面对这种烈度的技术迁移,2025年的游戏开发者恐怕早已站在历史性的拐点之上——无论行业是向上还是向下,这堵名为AI的钢铁巨幕,将始终屹立在道路两旁。

    (图源:阿里巴巴AI大模型通义千问)

    游戏大厂全都坐不住了

    如果说越来越低的使用成本,只是帮助AI通往游戏行业腹地的入场券,那么上文提到的AI第二项跨越式进步——“内容精度”,就是DeepSeek撬动游戏行业的关键杠杆。

    在过去,无论是首先引发AI热潮的ChatGPT,还是后来广泛应用于游戏研发的AI美术工具,其痛点一直都绕不开“答非所问”、“直出不能用”,“需要大量时间精调”这几组关键词。

    归根结底,这些缺陷所折射出来的核心问题,实际上直指AI没有共情能力、AI无法理解创作这几项致命短板。    但时过境迁,在DeepSeek身上,我发现“AI破解创作”这件事情并非毫无可能。

    例如在一篇来自github的《LLM    (大型语言模型)创意故事写作基准》报告中,DeepSeek R1成功挤掉了霸榜长达7月的Claude,晋升LLM创意故事写作榜第一。

    在此次创意故事写作测试中,测试规则不仅对AI笔下的故事流畅度提出挑战,同时它还要求AI强制嵌入十项核心叙事要素    (包括角色设定、背景构建、动作动机等)以验证AI的创作性能。而DeepSeek正是凭借出色的创意和规则贴合度,在共计500次创意故事写作中斩获270次第一    (54%),一举领先Claude、Gemini等大语言模型。

    在DeepSeek登顶背后,DeepSeek也让游戏从业者看到AI在内容精度和创作趣味性上的巨大潜力。

    不过其中最让行业感到兴奋的,无疑是Deepseek在测试中所展现的惊人“共情能力”和“互动性”——这正是包括米哈游、腾讯、网易等头部大厂目前迫切需要的。

    (图源:B站UP主途淄)

    早在数年前,头部游戏大厂就早早围绕“AI互动能力”展开极其深度的布局以及研究。例如在2023年前后,一家名为MiniMax的初创公司,就引得米哈游、腾讯在内的游戏巨头争相投资。

    据了解,Minimax是由前商汤科技副总裁、通用智能技术负责人闫俊杰成立的人工智能公司,目前旗下的主力产品是提供AI聊天服务的社交软件Glow,估值已超12亿美元。

    在这款产品中,用户可以选择创造属于自己的“智能体”,通过设定基础的性格、背景故事等人物特征,培养一位擅长聊天对话的智能AI,进而让用户体验跟虚拟人物聊天的乐趣。

    而MiniMax引动一众大厂跟投的原因也不难理解——与DeepSeek类似,Glow所拥有的AI智能技术能够给玩家带来身临其境的互动体验。这项技术的关键之处在于,它不同于传统AI的预设性对答,而是凭借模型本身自带的“即兴创作”属性,去主动模糊AI与真人玩家的互动边界。

    单凭这一点,有着较高共情能力的AI技术,就无疑能让强调情绪价值和社交属性的二次元、乙女、MMO等品类如焕新生。    因此,布局“强互动型AI”早已成为行业共识。

    以米哈游为例,早在2023年4月,《崩坏:星穹铁道》的制作人大卫就曾透露内部在NPC行为和台词中尝试投入过AI技术,让一直以来较为模式化行动的NPC显得更加自然。

    而同一时间,在与《女神异闻录》制作人的对谈中大卫也曾提到,希望AIGC技术能够将“不会重复回答台词的NPC”变成可能,从而给玩家提供更多新奇的游戏体验。

    既然包括米哈游、腾讯在内的顶尖大厂都被强互动AI迷得神魂颠倒,那么中腰部的游戏企业自然更不用说。

    举几个近期的例子,去年游族就在少年系列游戏中实装了面向玩家的首款AI产品——AI玩伴小游酱。据了解,小游酱不仅能够为玩家提供客服答疑和游戏攻略,还能在陪玩与倾听中,提供丰富的情绪价值。

    而就在几天前,游族也正式宣布小游酱将接入满血版的DeepSeek,计划在情人节当天与旗下的二次元手游《绯红回响》一起,为玩家带来别样的惊喜。

    与之相似的案例,还有来自幻境游戏CEO张筱帆再创业的“自然选择”公司。

    在去年10月12日,与幻境游戏(旗下《奇点时代》)互为兄弟的自然选择官方,在B站发布了AI伴侣《EVE》的首支预告PV,并在两天内收获了超过110万播放量。

    当然,有关AI伴侣的实际应用仅是这项技术最直接的落地方式。我们不妨试想,当高共情、强互动的AI能够感知玩家动机,即兴创建故事脉络时,游戏世界便从预设的剧本牢笼中挣脱,进而成为能够动态生长的内容生命体。

    (网易《逆水寒手游》也同步接入包括DeepSeek在内的诸多国产大模型)

    这种由强互动性催生的“叙事涌现”,或将颠覆延续数十年的关卡设计逻辑,让一款强调情绪价值的游戏具备前所未有的长青价值。我想,这或许才是DeepSeek眼下最值得游戏行业参考学习的能力之一。

    对打工人而言,是福?是祸?

    聊完DeepSeek所代表的AI技术两大变迁,我们也是时候回归最初的疑问——在DeepSeek火爆全网后,“机器吃人”的故事,距离我们还有多远?

    相信不少从业者也会和我一样深有同感——    每当AIGC取得突破,“又要裁员了吗?”,这个幽灵般的质问总会在行业群聊中复活。但现实可能要比想象复杂得多。

    对比贯穿2023年到2024年的AIGC恐慌,本质是市场下行所引起的“降本增效”,恰好跟AIGC爆发的“技术奇点”整上了一轮火星撞地球。

    但当时间进入2025年,情况正在发生变化:版号常态化发放、小游戏赛道爆发、头部爆款频出……行业进入复苏期后,“优化”不再是唯一命题。    更别提,DeepSeek代表的“生成即服务”模式,正在为游戏行业的工作模式带来全新的变化。

    过去我们常说,AI技术的加入只是让“流水线工人”变成“创意决策者”。一位从外包原画师转型AI美术的从业者,就向我描述了他亲身经历的行业变迁:

    “过去我每天画12小时铠甲花纹,现在80%的重复劳动交给AI,剩下时间全用在和策划吵‘这套衣服该用凤翅兜鍪还是交脚幞头?’。”他告诉我,在AI介入他的生活之后,日常工作反而变成了真正的创作。

    这种趋势在文案领域可能同样显著。一位总是活跃在各大群聊的MMO文案表示,前段时间他试水了DeepSeek的内容生成功能,它可以将耗时数月的“全门派技能描述”压缩到一周完成,而自己得以转而投入核心主线剧情的情绪张力打磨。“AI就像给每个人配了实习生团队,关键看你怎么用。”

    杀死“牛马”的,从来不是工具。回看游戏史,每一次技术革命都会引发“机器吃人”的恐慌,但最终被淘汰的从来不是人类,而是固守旧范式的工作方式。

    当DeepSeek们扛起“脏活累活”,从业者反而有机会回归创意本源——就像印刷术没有消灭作家,Photoshop没有杀死画家,真正的创作者永远能找到与新工具和平共处的方式。

    或许某天,当AI能独立开发出《原神》级产品时,游戏圈需要新的生存法则。但至少在今天,Deepseek更像是行业集体跃升的弹簧板。

    我们现在需要做的,只是踩准它的力量,而不是恐惧它的阴影。

  • Perplexity免费推出Deep Research:性能超过R1、o3-mini等,CEO:感谢DeepSeek

    Perplexity免费推出Deep Research:性能超过R1、o3-mini等,CEO:感谢DeepSeek

    AI搜索“老大哥”Perplexity,刚刚也推出了自家的Deep Research——

    随便给个话题,就能生成有深度的研究报告。

    先来划个重点:免费向所有人开放!

    具体来说,非订阅用户每天最多可查询5次,Pro用户每天可查询500次。

    然后啊,效果是酱紫的。

    例如给出一个问题:

    What should I know before the market opens?开市前我该知道些什么?

    在Deep Research加持下的Perplexity先是会查找海量的资料

    接下来是推理过程,用Perplexity的话来说就是专家级别的分析

    对原始材料进行充分评估之后,Perplexity就会将所有研究综合成一份清晰而全面的报告

    最后,你还可以把Perplexity写好的专业报告一键导出,格式包括PDF、Markdown和Perplexity Page:

    性能方面,Perplexity官方也给出了他们的测试结果。

    他们采用的基准,是最近考验AI推理能力大火的Humanity’s Last Exam(人类的最后考试),准确率达到了20.5%

    (注:“人类的最后考试”涵盖100多个科目、包含3000多个问题,涉及数学、科学、历史和文学等领域。)

    从成绩上来看,是优于Gemini Thinking、o3-mini、o1、DeepSeek-R1和其他许多主流模型。

    在另一项SimpleQA(一个包含数千个测试事实性的问题库)的测试中,Perplexity Deep Research的表现更是明显远超领先模型,达到了93.9%的准确率。

    更重要的一点是,Perplexity的Deep Research有够快——平均在3分钟内可以完成大多数研究任务。

    对此,Perplexity的CEO(Aravind Srinivas)公开致谢DeepSeek

    这是因为DeepSeek是开源的,又便宜又快。

    其实在10天前的一条推文中,Aravind Srinivas其实已经有所剧透:

    在推文下方的评论中,我们也看到了不少关于DeepSeek的身影:

    不得不说,DeepSeek的含金量还在上升

    实测Perplexity的Deep Research

    Perplexity新功能的操作方式也是极其简单。

    只需在搜索框下方的选项中pick一下Deep Research即可:

    从官方展示的案例来看,Deep Research擅长在金融、市场营销和技术等领域的深度研究,并且在健康、产品研究和旅行计划等领域作为个人顾问同样有用。

    例如在默认搜索和Deep Research下,同时问:

    What’s the best strategy for advertising at the Super Bowl? Analyze the ROI of each major advertiser at the 2025 Super Bowl. Which brands were the biggest winners and losers? What ad techniques were most and least effective? If I wanted to advertise at the 2026 Super Bowl, what should I do to maximize success?在超级碗(Super Bowl)投放广告的最佳策略是什么?分析2025年超级碗上每个主要广告商的投资回报率(ROI)。哪些品牌是最大的赢家和输家?哪些广告技巧最有效和最无效?如果我想在2026年超级碗上投放广告,我该怎么做才能最大限度地取得成功?

    可以看到,Deep Research给出的答案更像是一个专业的报告

    先是以类似论文“摘要”的形式,把问题的核心亮点全部提炼、总结出来,然后再撰写并展开包括Introduction在内的更多内容。

    同样的,让Deep Research完成撰写“黄仁勋传记”,从输出内容和格式来看,是更加清晰且一目了然:

    现在,也有很多网友开始在网上po出自己实测的效果。

    例如让Perplexity做下面这个任务:

    compile a research report on how has retail industry changed in the last 3 years.编写一份关于过去3年零售业变化的研究报告。

    然后这位网友还总结了一下Deep Research和普通AI搜索功能的区别:

    普通搜索为简单的查询提供快速的、表面的信息。它适用于查找基本事实或获得简短的摘要。另一方面,Deep Research是为需要深入分析的复杂、多层次的查询而设计的。

    正常的搜索通常会在几秒钟内产生结果。Deep Research是一个更耗时的过程,需要5到30分钟才能完成。

    但,好多“Deep Research”啊

    除了效果之外,对于Perplexity发布的Deep Research,网友们还有另外一个热议的焦点——名字

    例如有网友就直接提出了自己的困惑:

    Deep Research是你们能想到的唯一的名字了吗?

    其实这也不怪网友们提出这样的质疑。

    因为……现在有太多叫Deep Research的产品了……

    2024年12月,谷歌发布Deep Research

    2025年2月,OpenAI发布Deep Research

    2025年2月,Perplexity发布Deep Research

    AI的问题,我们就让AI来回答。

    Perplexity在回答中总结出了一个表格:

    CEO对此也给出了自己的答案,一言蔽之,就是“快好省”,不过他顺便还阴阳了一波OpenAI:

    我们每月不用200美元。

    最后,CEO还预告了一则消息,下周Perplexity还有一个很cool的东西要发布。

  • 20+ 车企接入 DeepSeek,为啥没有「蔚小理华米特」?

    20+ 车企接入 DeepSeek,为啥没有「蔚小理华米特」?

    DeepSeek 成为了蛇年开年最火的事物,连家里的爸妈甚至爷爷奶奶,都在过年的饭桌上叫我给他们讲讲 AI 是怎么回事。

    由于同时具备强大的推理能力及开源模型两个特质,导致几乎所有科技公司都在研究怎样和 DeepSeek「深度融合」一下。华为、腾讯、百度、字节等互联网巨头,尽管都有各自自研的模型,但不妨碍纷纷第一时间在自己的云服务器里接入 DeepSeek,一群因为「服务器繁忙,请稍后再试」的用户得以曲线救国,云服务商得以也接住了泼天流量。

    芯片、金融、电信等行业的头部玩家也因为相似的逻辑接入了模型。毕竟大家都希望体验一下 R1 模型的最强大脑。不管在业务层面起到了多大的帮助,大部分公司的股价至少都涨了。

    不过有一个行业稍显例外,那就是汽车行业的主机厂们

    截止 2 月 13 日,已经有包括比亚迪、吉利、东风、长城、极氪、智己等超过 20 家车企宣布完成和 DeepSeek 的深度融合。不过,新势力里的蔚小理华米,以及特斯拉均没有宣布和 DeepSeek 的相关融合信息。

    大模型上车,现阶段最大的问题,是还没有展示出足够好的场景。相反,在一些主机厂的微博评论区里,车主更在意一些已有的功能能否及时通过 OTA 得到优化

    可以看出,技术并不是用户最在意的点,用户真正在意的是产品体验。如何用更好的模型获得更智能化的体验,才是用户真正在意的。相反,如果现阶段不能达到更智能的体验,那么用户更在意的是这车好不好开,内饰舒不舒服,还有便宜不便宜。

    用户想得到的是一辆「更智能的车」,但并不代表他们要在车上用车机写出一篇高考满分作文。

    01 车企排队接入 DeepSeek?「如来」

    在目前各主机厂释出的有限信息里,DeepSeek 上车后,智能座舱中的人机交互,有望成为第一个深度融合的典型场景。

    智己、吉利发布的两条视频里,展示了 3 个和智能座舱有关的使用场景,分别是:

    场景 1:激活座舱模型,调用 DeepSeek 进行文本生成,如案例演示中「生成一篇文章庆祝亚冬会金牌诞生」。

    智能座舱通过 DeepSeek 进行文本生成 | 图片来源:视频截图

    在这个场景中,座舱通过接入 DeepSeek 的 API,把 DeepSeek「好文笔」搬上了车。和绝大多数人习惯在手机、电脑端操作略有不同的点在于添加了语音作为新的交互方式。

    场景 2:提问在某段里程中遇到的一个湖叫什么名字。DeepSeek 通过调用车辆行程记录、地图等信息,推理给出了相应答案。

    通过 DeepSeek 推理回答车主问题 | 图片来源:视频截图

    在这个场景中,通过接入 DeepSeek,把车机内储存的端侧信息(行程记录、地图)作为推理语料提供给了模型,由此可以得到更个人向的推理问答。

    场景 3:直接对车机表达「我累了,一会叫我」的模糊指令,车机识别后分别调整了车窗、座椅、空调、氛围灯、闹钟的硬件或功能,生成了一个休闲场景。

    通过 DeepSeek 实现模糊语义识别及相关车控操作 | 图片来源:视频截图

    和手机里的 DeepSeek 应用不同,接入车机后,最显著的不同在于模型可以调用车端信息作为推理语料,为车主提供更个性化的服务。

    不过,这些推理要消耗多少运算资源、需要怎样的硬件支撑、以及是否需要联网服务,目前主机厂还没有释出太明确的信息。

    02 更聪明的智能语音,未必是真 PMF

    DeepSeek 有希望让车内的智能语音变得更聪明,更能理解用户的各种模糊指令。不过,这真的此刻主机厂和用户最紧迫的真实需求吗?

    从企业端来说,目前积极接入 DeepSeek 主要分为三类,分别是:芯片、云服务和终端硬件厂商(手机+智能汽车)。

    对于芯片厂商而言,由于 DeepSeek 是基于英伟达芯片进行推理的,而不同芯片间架构不同,所以其他厂商必须进行软件和算法层面的适配,才能兼容 DeepSeek 的模型训练和推理。换句话说,芯片商参与到这轮 DeepSeek 热里,是出于用户最真实且紧迫的需求,这是保住和扩大市场必须要做的一个关键动作。

    云服务商的积极接入,也有类似的逻辑。对于 C 端用户而言,在频繁遭遇「服务器繁忙,请稍后再试」的提示时,云服务商的出现提供了新的入口,接住了这次泼天的流量,让人多普通消费者认识了自己;对于 B 端用户如开发者和企业用户而言,在云上部署 DeepSeek,可以降低企业使用模型的门槛,提供更好的开发体验。

    因此,在这轮 DeepSeek 热潮里,包括华为云、腾讯云、阿里云、百度云、火山引擎等主力玩家,都先后对 DeepSeek 进行了云端部署——哪怕这些云厂商背后的科技公司都有自己独立研发的模型,但用户要用 DeepSeek,他们就要接入这个开源模型。

    「不堪重负」的 DeepSeek 服务器 | 来源:网络截图

    但到了硬件领域,对终端厂商和用户来说,此刻在产品完成对端侧 DeepSeek 的部署,既有难度,也不是优先级最高的需求。

    首先,目前的端侧计算资源并不支持「满血版」DeepSeek 的本地化部署。不同于云端服务器,如果要在个人设备上部署 671B 参数模型的 R1 模型,需要将近 1300G 的显存,远超 PC、手机、汽车的端侧计算资源。如果退而求其次,用 7B 或 10B 的蒸馏模型,其推理能力又和满血版有显著差别。

    所以,如果把 DeepSeek 模型接入车机,但实质只是多了一个语音入口,对用户来说,为什么非要在车上使用 DeepSeek 而不是打开手机或电脑上的应用呢?

    对于智能汽车用户而言,相比车机是否可以解答一道数学题或者写出一篇好作文,显然更在意它是否能发挥好「助理」的角色。这才是真正的需求。例如,手机微信里接收到的地图甚至大众点评的餐厅位置信息,是否可以一键流转到车机导航,并显示在 HUD 导航里。这是减少车机端操作,提升体验的一个具体场景。

    而要执行这类任务,需要的核心能力并不在于 DeepSeek 所擅长的「推理」,而是打通不同设备间接口的工程能力。目前,包括鸿蒙智行、小米、蔚来等拥有多端设备的企业实际已经具备了类似功能。这大概也是为什么华为云宣布和 DeepSeek 融合,但鸿蒙智行旗下车企却暂时没有相关发声的原因。

    其实,无论是手机还是汽车用户,大家真正期待的是将 AI 的「大脑」和硬件的「身体」结合起来后的智能化体验,也就是 OpenAI 定义的人工智能阶段里,从 L2(推理者)到 L3(Agent)的提升。但在产品层面,这并不单单取决于某个模型的能力,还和硬件层面的产品定义、接口、功能开发都息息相关。

    03 除了座舱,DeepSeek 还能为车企做点啥?

    在产品层面之外,在近年角逐越来越激烈的智能驾驶层面,DeepSeek 能为车圈提供什么帮助吗?

    要回答这个问题,首先我们得知道目前智能驾驶开发层面最大的问题是什么?

    一句话概括,就是:目前智驾系统还搞不定复杂的城区路况,接管次数频繁,使用体验不佳。

    接管次数多的原因除了一些难以预测的安全情况,如行人横穿、车辆加塞、电瓶车逆行等,还包括系统对一些特殊交通规则的识别和判断,比较典型的场景包括:一线城市的潮汐车道、公交车道;不同城市左转、掉头车道设计思路不同(有些在最左侧,有些在最右侧);以及临时施工或管制时的各种电子屏幕信息。

    这些烧脑的交通变化,别说是智驾系统了,就算是人类司机,当第一次遇上这些情况,也得打起 100% 的专注度才不会走错道。

    理想汽车的 CEO 李想去年年中有个著名的演讲,把人类驾驶者的大脑分为系统 1 和系统 2,系统 1 负责以低能耗的方式处理直觉类工作,而系统 2 则负责在复杂情况中进行推理,处理各种 Corner Case。

    而以推理见长的语言模型 DeepSeek-R1,从原理来说是有望提升「系统 2」的能力的。例如,更精准识别和理解不同交通标识(公交车道、潮汐车道),从而做出更好的驾驶判断。并且,DeepSeek-R1 提高了模型的训练效率和推理能力,也有望优化车端的推理速度,在算力有限的端侧也达到更好的智驾能力。

    智驾开发的另一个难度,体现在数据采集侧。不同于语言大模型可以直接利用海量的数字文本资源进行训练,智驾往往需要先在真实物理世界中采集数据,才能进行训练。

    由于引入了 MoE(混合专家架构)、MLA(多头潜在注意力机制)等技术,DeepSeek 本身降低了对数据标注的需求,因此可以帮助智驾企业进行数据挖掘和生成,降低数采和标注的成本。

    而在另一个层面,DeepSeek 的多模态模型(非 R1)可以模拟生成一些难以采集的场景数据,如极端路线、罕见交通标识等。而通过仿真数据进行智能驾驶的训练或验证,也是包括华为、蔚来等多家车企进行智驾模型训练的重要工作之一。

    以上这些工作,虽然不像云服务商接入 DeepSeek,可以直接解决用户访问主站时转圈圈的燃眉之急,但对车企而言同样重要。毕竟比亚迪已经喊出了「全民智驾」的口号,智驾毫无疑问将成为 2025 年竞争的重点。在同价位段车型里提供更好的智能化功能,将成为消费者选择决策中新的重要考量因素。

    当然,正如前文所言,一辆智能汽车各项功能的发挥,不仅只仰仗于某些单一技术的突破,车端其他硬件层面的优化(如更大算力的智驾芯片)以及模型侧其他能力的优化,将共同决定我们何时达到 L3 级别的智驾智舱能力。

    DeepSeek 在智能化浪潮里,给了所有创新者一个小成本高性能的样本,但不是一套可以照抄的答案,未来的汽车产品应该走向何方,还需要真正懂产品懂 AI 的人来「深度求索」。

  • 测试过微信官方支持的 DeepSeek R1 后,我搞明白腾讯要怎么押注 AI 应用了

    测试过微信官方支持的 DeepSeek R1 后,我搞明白腾讯要怎么押注 AI 应用了

    微信自 2011 年推出以来,一直以创始人张小龙的「克制」而闻名,不会为了「风口」而改变微信本身。甚至今天你刷朋友圈的体验,都与十年前朋友圈刚刚诞生时没有本质的区别。

    「张小龙觉得对这个功能自己最满意的地方之一,就是一经发布几乎没有改进余地而稳定运行了十年。」极客公园创始人张鹏在与张小龙对话后,这样总结微信的产品逻辑。这一点在微信成为真正意义上的「国民社交 App」之后,也没有发生改变。

    而在 DeepSeek R1 发布后,这些标签就像面具一样,被微信团队自己猛然撕下:北京时间 2 月 15 日晚间,陆续有用户发现,在自己的微信搜索中,出现了整合了 DeepSeek R1 的「AI 搜索」功能——此时距离在 1 月 20 日 DeepSeek 正式发布并开源 R1,还不到一个月时间。

    在微信搜索界面中,就能看到 AI 搜索按钮 | 图片来源:极客公园

    对于收到本次更新的用户,在微信主页顶部的搜索栏中点进去,就能在搜索记录下方看到一个「AI 搜索」的按钮,点击进去,其中就能看到这个功能提供的两个回答模型能力选项。第一个名为「快速回答」,第二个就是由开源的 DeepSeek R1 驱动的「深度思考」模式。

    共有两个模型选项,其中第二个才是由 DeepSeek R1 驱动的版本 | 图片来源:极客公园

    值得一提的是,虽然本次为只有部分用户收到的灰度更新,但从推送范围以及收到的更新的用户分布广度来看,本次更新的推送速度相比近期微信的 Callkit 等同样经历过灰度的功能更新,推广速度要快许多。从最早的爆料出现,到首批收到推送的用户大规模出现,仅用了不到六个小时。彻底颠覆了过去数年微信功能更新给人「保守」的印象。

    本次更新并不绑定软件本身的版本号,因此无需你从 App Store 或其他应用商店更新微信版本,笔者自己则是在手动清除掉手机的微信后台、重新启动后,就发现了这个入口。

    换言之,如果你手机上的微信当前还没有收到这个更新,也不用太着急——你微信中的 DeepSeek R1 入口其实已经隐藏在代码之中,测试资格或许马上就到。

    从功能附带的开源与鸣谢声明能看出,微信中内置的 DeepSeek R1 基于开源版本构建而来,但其中并未明确提及其使用的模型体积,是否是 671B 的「满血」R1 版本。

    微信「AI 搜索」功能的开源声明页 | 图片来源:极客公园

    众所周知,包括公众号/视频号在内的微信内容生态长期以来一直是独立于各大搜索引擎的一个「孤岛」,这个情况在 ChatGPT4o 等联网语言模式问世之后也没有得到相关的改善,因此测试上微信内置的 R1,我最兴奋的就是它是不是终于可以,在微信内容平台的海洋中,使用大模型的能力自由翱翔了?

    很遗憾,在目前的实际的测试中,答案是否定的。

    例如,我尝试了将公众号的微信推文链接喂给它,它也无法检索微信平台中的相关信息,只能根据链接中相关的字段在微信公众平台之外的互联网上搜索相关的内容,甚至有些时候它都无法识别到这是一篇来自微信公众号文章的链接。

    当前版本的 AI 搜索,还不能识别微信内容的链接 | 图片来源:极客公园

    在其他涉及到微信公众号相关的问题中,虽然 AI 搜索能够依据文章搜索以及 R1 的推理能力给出相对准确的回复,但其内容的来源更接近微信公众号在其他平台分发得出的结果,而非对微信内容平台自身结果的引用。

    针对微信平台内容的回答,更多是基于互联网现有内容整合而来 | 图片来源:极客公园

    目前来看,微信内置的 R1 并未针对微信平台内的内容进行检索增强生成(RAG),对输出结果进行优化。

    这既是当前阶段内测版本微信 AI 搜索的明显短板,也是短期内微信整合 AI 功能显而易见的重要更新方向之一。

    总体体验来讲,目前的微信 AI 搜索体验也非常轻量级。不仅不支持连续对话,也不支持上传各种文件内容辅助提问与搜索,甚至在你退出聊天界面后,当前的对话记忆内容也会被直接销毁,不支持保留。

    作为「国民应用」的微信,在 DeepSeek R1 正式发布并开源的不到一个月时间内,就在应用内整合了入口,这无疑是一件让人振奋的事。

    之所以让人振奋,是因为微信在做的事,只有少数厂商能做到。

    在对话生成式模型拥有手机端 App 之后,抢占智能手机桌面的入口,已经是包括 ChatGPT、Perplexity 等很多 AI 应用在做的事情,通过设置其成为默认语音助理的方式,将「入口控制权」尽可能从手机品牌那里抢夺。

    但对于微信这样相对封闭的平台来讲,能依托微信现有的庞大中文内容生态,做并且能做好这件事的,目前看来似乎只有微信团队自己。

    从「极端保守」到如今成为了率先加入 DeepSeek 的聊天应用。这样的明显的改变,只有一种合理解释:微信团队认识到了 DeepSeek R1 所代表的推理模型在微信平台中应用的巨大潜力,并决定快速下场,来成为这场改变浪潮的主导者,确保微信的使用体验不落于其他竞争者。

    这已经不是微信团队第一次在 AI 大模型领域出手,微信输入法曾在去年六月加入「一键 AI 问答」功能,用于让用户在微信输入法内实现语言大模型的内容回答。

    但彼时这个功能是基于腾讯自家的混元 AI 大模型实现,并不能充当文本生成工具。

    微信输入法中现有的「问 AI」功能 | 图片来源:极客公园

    从体验上来讲,微信输入法适合各种聊天中的「灵光一现」问题,微信本体的 AI 搜索,有很大可能将会聚焦在微信现有内容生态内,借助用户聊天内容以及微信公众号等平台,深度挖掘其中的应用场景。

    这样的「分布式」的 AI 能力体验,倒是与 Apple Intelligence 的产品思路有异曲同工之妙:在去年苹果发布的 Apple Intelligence 能力中,苹果并没有颠覆性的拿出另一个能力震惊世界的模型,而是选择借助 ChatGPT 这样现有的模型,将模型能力嵌入在包括笔记、照片以及输入法等手机生态的各个角落。

    苹果 Apple Intelligence「散落」在各个应用中的 AI 能力 | 图片来源:极客公园

    表面上,Apple Intelligence 似乎不如同期 Google、OPPO 这样同样在发力手机 AI 应用的厂商来的更加聪慧,但苹果实际上在做的,却让 AI 尽可能「悄无声息」地加入用户生活,并借助能力给用户更多的使用场景带来改变。

    从这一点上来看,虽然没有手机操作系统的腾讯,在移动互联网时代错失了最重要的入口之一,但微信作为如今重要的沟通平台,却成为了「让 AI 真正普及」过程中不可或缺的重要一环。

    在中国,上至百岁老人、下至刚刚学会用智能手机的孩童,都已经对微信有了最基础的使用概念,这些功能中,同样也是最适合 AI 能力去进一步做「润滑」、降低 AI 学习成本的关键所在。

    对于已经走过爆发点的生成式 AI 来讲,如今通过探索 AI 应用的普及,从而让 AI 能力在更多用户的长期使用中「产生质变」,才是微信 AI 真正值得我们期待的未来。

    甚至当下我们就已经可以下定论:微信中的 AI 能力,或许不会是最让人兴奋的那个,但它却有最大的机会真正去「改变世界」。

  • 用400块装的电脑跑通了DeepSeek!你感相信吗???

    用400块装的电脑跑通了DeepSeek!你感相信吗???

    DeepSeek最大价值是让AI普惠。

    在我看来,2025年绝对能称得上是中文大模型的颠覆之年。

    DeepSeek的横空出世,不仅打破了英伟达主导的“算力决定一切”的刻板印象,也打破了美国在大模型领域的长期主导地位,甚至一度挑起了全球大模型领域的价格战,让更多的人能够体验到大模型带来的乐趣。

    至少从抖音、快手上的反应来看,对普罗大众而言,DeepSeek的出现确实把“人工智能”这样一个遥不可及的概念带到了人们身边。

    哪怕是我这个浸淫大模型两年半的雷科技练习生,在过年期间不仅没少给身边的父母亲戚介绍这DeepSeek到底是什么,自己也是时不时就拿起手机来玩一下,没办法,能在不要钱的基础上提供这种问答质量的中文大模型,目前也就DeepSeek能做到了。

    要说有什么问题嘛,还得是这服务器的问题了。

    特别是我这边发出请求,然后看着DeepSeek在那里转个半天,最终却只能憋出个“服务器繁忙,请稍后再试”的时候,那种挫败感是真的难受,让人迫切想要在本地部署一个属于自己的DeepSeek推理模型。

    问题就出在成本上,按照常理来说,想要购入一台能在本地运行大模型的设备,那要不就是售价在5000元以上的AI PC笔记本,要不就得自己着手去装配一台搭载独立显卡的整机,不管哪个选择对普通消费者来说都不够友好。

    不过将预算压缩到极致,然后搭配出一套「能用」的主机,正是每一位DIY玩家的终极乐趣,而这给我带来的挑战就是,如果真的想弄一台可以本地运行DeepSeek模型的电脑,到底需要多少钱?

    我的答案是,400元。 

    尽管近期正经的内存和硬盘有价格上涨的趋势,但是在洋垃圾这边其实价格变化倒是不大,甚至一批早年的洋垃圾CPU和矿卡GPU还有价格下跌的趋势。在如今大模型潮流席卷而来的背景下,我甚至不准备拘泥于办公影音需求,决定挑战一下用四百块钱的预算,试着去打造出一套性价比颇高的入门级本地大模型主机。

    至于具体应该怎么操作,最终成效是否如意,跟着我一起看下去自然就知道了。

    越陈越香的洋垃圾

    既然说了要在400块内搞定,那么如何在尽量低的价钱内完成整机的装配就变得至关重要了。

    在CPU的选择上,我直接从PDD上捡了一颗Intel® Core™i3-4170,售价22元。

    该处理器为二核四线程,3.7GHz主频,没有睿频能力,具备3MB智能缓存,采用22nm制程工艺的Haswell架构,而它最大的特点就是拥有一颗HD4400核显,这也是我选择它的关键。

    (图源:PDD)

    俗话说得好,低价U配低价板嘛。

    所以主板的话,我就选择购入了一块铭瑄MS-H81M Turbo,只有两根DDR3内存插槽不说,甚至都没有HDMI输出接口,也没有M2硬盘位,USB 3.0、SATA III接口都只有两个,但是它在PDD上面只要79块钱。

    这加起来仅需100左右的板U套装,性价比放在今时今日也是出类拔萃的。

    (图源:雷科技)

    这种CPU,散热就不用太担心了。

    PDD上面14.9包邮寄过来的双热管风冷散热器,虽然外观上是丑了一点,简陋了一点,但是用来压我这一套超低价配置肯定是绰绰有余了。

    (图源:雷科技)

    至于显卡嘛,近期闲鱼上面流出了一大堆P106-090和P106-100矿卡,其中前者的价格普遍在70块钱左右,后者的价格普遍在120-140块钱左右。

    两者之间最大的差别在显存上,P106-090仅有3GB显存,而P106-100则有6GB显存,尽管我这次的初衷并不是为了游戏而来,但是更高的显存规格确实可以运行更高效的本地大模型,所以我最终还是拿下了一张技嘉的P106-100,售价130元。

    (图源:雷科技)

    最后,给它简单配上两根杂牌DDR3内存,组成内存双通道,用一个300W长城电源供电,一块120GB SATA SSD做系统盘,用上次装机剩下来的大水牛硅脂凑合凑合,最后再配上个20块钱的电脑城小机箱…

    完成!请欣赏一下我用四百元装机的成果吧。

    (图源:雷科技)

    然后是我给出的参考价格表,感兴趣的大伙也可以试着照这张表格上的配置自己配一下,总之价格上不会差太多。

    你要是更追求性价比的话,甚至把机箱换鞋盒也不是什么大问题。

    (图源:雷科技)

    装机完成,点亮主机!

    先做个简单的性能测试,作为多年服役的老将,Intel® Core™i3-4170的性能也就那样,即便是在用TrottlesStop解锁功耗的情况下,也就差不多相当于移动端酷睿六代、酷睿七代处理器的水平。

    (图源:雷科技)

    在实测环节中,CPU-Z测试单核跑分有373.4分,多核跑分有1025.2分,在CINEBENCH测试标准下,CINEBENCH R20多核824cb、单核346cb,CINEBENCH R23多核1914cb、单核905cb。

    亮眼肯定是不够亮眼,但是拿来日常办公、轻度娱乐倒是够了。

    (图源:雷科技)

    再看看GPU部分,我手上这张技嘉P106-100采用16nm工艺打造,显卡核心为GP106,核心频率为1506MHz,可提升到1709MHz,具有1280个着色单元,支持DirectX12,显存规格为6144MB/192Bit GDDR5内存,显存频率可达2002MHz。

    在测评DX11性能的Fire Strike测试中,P106-100在Extreme测试中取得了6490分的图形分数;在测评DX12性能的TimeSpy测试中,P106-100在基本测试中取得了4428分的图形分数。

    (图源:雷科技)

    这个性能表现和GTX1060差不多,甚至能和移动端RTX 3050碰一碰了。

    存储方面,我们斥资40元购入的这块杂牌128GB SATA SSD硬盘,顺序读写速度达到505.24MB/s和369.63MB/s,随机4K读写达到132.06MB/s和246.55MB/s,虽然和M2 SSD硬盘没得比,但是作为系统启动盘肯定是绰绰有余了。

    (图源:雷科技)

    至于这对双通道的DDR3内存,使用AIDA64进行内存缓存测试,测得的读取速度为18557MB/s,写入速度为19889MB/s,复制速度为17914MB/s,延迟为67.2ns,给这台电脑用可以说是刚刚好。

    (图源:雷科技)

    百元机,用上DeepSeek

    既然目的是在几百块钱的预算下,打造出一套可用的本地DeepSeek主机,那么体验肯定是我们最关注的一环。

    首先,要说真正的DeepSeek-R1,那便只有一个版本,即671B的原始版本,其中包含大量的参数,推理精度确实高,但需要大量计算资源,而且显存至少为1342GB。

    (图源:HuggingFace)

    这显然是P106-100承受不起的,也没有哪张消费级显卡能承担得起就是了,官方推荐的方法是用16张NVDIA-A100 80GB显卡,或者是组成Mac电脑集群,用高速度的统一内存去跑。

    像我们这种消费级显卡,就只能用“蒸馏模型”

    所谓蒸馏模型,可以看成“老师教学生”,通过知识蒸馏,教更精简的模型学会复制较大模型的行为,扩充性能,减少资源需求,而用DeepSeek-R1蒸馏的话,主要就是给这些模型加入“深度推理”的概念。

    再降低一下模型精度,就能看到我们能够部署的蒸馏模型。

    (图源:HuggingFace)

    然后根据Unsloth提供的报告,DeepSeek-R1-Distil-Qwen-7B是符合需求的蒸馏模型中表现最出色的,各方面测试成绩均超越了理论参数更多的DeepSeek-R1-Distil-Llama-8B。

    那么我们今天要部署的,自然就是DeepSeek-R1-Distil-Qwen-7B

    目前想在PC本地部署DeepSeek有两种办法,其中最常见的应该是Ollama+Chatbox AI的组合。

    所谓Ollama,其实就是一款比较流行的本地大模型服务端工具,部署起来也很简单,只要在Ollama官网搜索DeepSeek-r1,下面就会有不同大小的蒸馏模型渲染,然后搭配客户端启动就行了。

    (图源:Ollama)

    安装后,Ollama一般就在本地的11434端口开启服务了,但此时你只能在终端中进行交互,但是要获得像DeepSeek官网一样的体验,还是需要额外的前端客户端才行。

    而Chatbox AI,就是最常见的一款前端产品。

    不同于服务端的纯文字内容展示,Chatbox AI将大部分设置、功能进行了图形化,使用户的体验更加直观,而且这款产品支持众多本地AI模型和API接口,自然也可以使用本地Ollama 11434端口的服务。

    接入之后,大概就是这个样子。

    (图源:雷科技)

    你可以在Chatbox AI定义自己想要交互的模型人设,

    但要论角色扮演的话,第二种部署方法或许会更适合一点。

    为你介绍Koblodcpp,这是一款整合Koblod.AI界面的llamacpp启动程序,可以运行目前外网流行的GGUF格式本地大模型,甚至可以整合语音大模型和绘图大模型,实现在对话的同时,生成语音和对应场景的效果。

    只要在HF-Mirror下载对应的大模型,然后就能用Koblodcpp启动了。

    (图源:雷科技)

    使用Koblodcpp,你就可以加载通用格式的角色卡,实现和各种不同的角色对话交流的独特体验。

    如果这还不够,你还能够借助Koblodcpp的端口部署SillyTarven,后者是目前全网公认的最好用的大模型角色扮演前端,能够帮助用户实现对话逻辑的定义,对用户自身人设的定义,加载补充世界观的Lorebook和载入图片、动图以及互动代码来完善角色扮演体验。

    甚至…可以让DeepSeek实现破限,做到一些云端大模型做不到的事情。

    简单介绍完部署方法后,接下来就该进入实测环节了。

    用一些常规问题和它进行交互,就能看到详细的推理过程,应付一些正经的初高中语文、数学、英语问题,本地部署的DeepSeek体验起来还是不错的。

    (图源:雷科技)

    询问一些关公战秦琼的问题,文学创作能力看起来也不赖。

    (图源:雷科技)

    不过在比较复杂的数学、逻辑难题里,本地部署的DeepSeek表现就比较一般了,有不少逻辑推理题甚至会出现算不出答案的情况。

    (图源:雷科技)

    因为没有联网的缘故,目前本地部署的DeepSeek模型的知识库是截至2023年的,没有比较新鲜的素材,因此一些有时效性的问题自然无法作答。

    (图源:雷科技)

    至于速度的话,在限制回复长度为1024代币的情况下,应付一道高中数学题的思考过程为127s(即两分钟)左右,这个速度和原版DeepSeek之间差别不大,深度思考的特性让本地和云端的体验大大拉近。

    (图源:雷科技)

    当然了,因为思考太长的原因,本地部署的DeepSeek确实就不大适合聊天用了,喜欢聊天的建议更换Casuallm大模型进行体验。

    总结:低配置也能跑,但稳定性欠佳

    优点:

    1、成本预算低廉;

    2、确实能运行本地大模型。

    缺点:

    1、二手零部件无保障;

    2、矿卡驱动非常容易掉,白屏问题时有发生。

    论性能,这款预算不到400元的电脑主机其实还不错。

    尽管CPU规格老旧、矿卡表现不稳定,但是这台廉价主机确实能完成DeepSeek本地大模型的部署,在组装完成后的这段时间里,它一度成为公司局域网内部的AI终端,还可以部署本地AI绘图等一系列能力,算是实至名归的AI PC。

    虽然没有具体测试,但是近4500分的TimeSpy图形分,即便是《孤岛惊魂6》这样的3A大作,这款机子也能在FHD低画质下保证60帧稳定运行,应付《英雄联盟》这类网游应该是绰绰有余的,也可以当一台入门的游戏主机来用。

    说是这么说,问题当然还是有的。

    先说这台机子,为了搞好这台机子我也是前后折腾了半天。P106-100这张矿卡多次出现掉驱动导致电脑白屏,需要用DDDU卸载驱动再重装的情况,至于那个二手电源后面直接瘫痪了,还得去PDD上面扯皮商家才肯换货。

    目前闲鱼上面还有不少和我组装起来的这台机子配置类似的洋垃圾整机,售价普遍在350-400元左右,目标受众很明显是刚上大学或者走出社会的年轻群体,个人建议大伙别去购买这些产品,一分钱一分货可不是开玩笑的。

    再说说DeepSeek,目前市面上所有的本地DeepSeek部署教程,包括我们在内,实际上部署的都是经过DeepSeek蒸馏的通义千问模型,回答一些基础问题,简单测试深度思考还行,复杂一点的逻辑思考能力,这本地部署的版本和全参数的版本之间的差别可不是一星半点。

    只能说,真要想追求不卡的全参数DeepSeek体验,整个API接口可能是更加合理的方法。