博客

  • 一文讲透关于DeepSeek的7个核心问题

    一文讲透关于DeepSeek的7个核心问题

    2月10日至11日,巴黎举办了人工智能(AI)行动峰会。《纽约时报》称,与过去一个月的所有AI活动一样,巴黎AI峰会上充满了关于中国人工智能企业深度求索(DeepSeek)的讨论,这家中国公司以其强大的推理模型震惊了世界。据《财经》杂志统计,百余家中国公司已经宣布“接入DeepSeek”,覆盖从芯片、算力服务商到AI用户到最终用户各级生态圈。

    开年复工后的第一次全员周会上,峰瑞科技组的同事们对DeepSeek进行了深入讨论。本文将通过七个关键问题,剖析DeepSeek爆火的原因及其带来的多维度影响:

    DeepSeek为什么这么火?

    DeepSeek真正的技术创新是什么?

    为什么是DeepSeek?

    Scaling law还成立吗?

    DeepSeek给其他模型厂商带来什么影响?

    DeepSeek对硬件生态带来什么影响?

    DeepSeek如何影响应用生态?

    此外,我们还在文末总结了部分与此相关的投资机会。

    在这个AI技术飞速发展的时代,DeepSeek的故事或许只是开始。

    01 DeepSeek为什么这么火?

    第一个问题,我们先来回答DeepSeek到底为什么这么火?

    从我们的观察来看,DeepSeek这一轮的爆火,有20%是得益于技术创新,80%是来自于它从开源生态中获得影响力和背后的中国元素。

    技术上,简单说,DeepSeek用极低的算力成本,实现了比肩全球一线预训练大模型的能力。以及,DeepSeek第一次真正公开了用强化学习(Reinforcement Learning,简称RL)做推理模型的可能路径。强化学习是一种机器学习方法,通过智能体(Agent)与环境(Environment)的交互,学习最佳策略。

    实话说,仅靠这些,DeepSeek可能还不足以引起全球范围内如此强烈的反应。

    更多的影响力其实要归功于这些创新背后的中国元素。某种程度上,由于海内外的信息差,中国团队这一次推出的大语言模型使人们惊讶——中国AI行业的发展情况可能与OpenAI所代表的最先进水平之间,没有想象中差距那么大。但同时,DeepSeek也引发了很多质疑和讨论。当然,这些都是短期影响。

    长期来看,DeepSeek的成功给中国带来了更多进行技术创新的信心,无论是投资人还是创业者,可能都从其中看到了更多的可能性。

    另外,开源这件事情功不可没。DeepSeek作为后来者,不像海外大厂,没有什么包袱,所谓“光脚的不怕穿鞋的”。DeepSeek几乎将其所有研究成果都直接开源,打破了OpenAI o1系列模型的垄断地位,这对整个圈子造成很大的冲击。

    小结

    所以,理性来看DeepSeek出圈这件事,市场情绪因素占大头。 当然,我们也不能否认DeepSeek团队确实在技术上做了很多创新。

    02 DeepSeek真正的技术创新是什么?

    DeepSeek从成立至今,一共发过9篇论文。其实在大模型技术圈子里,大家对DeepSeek的技术实力早有认知。

    DeepSeek技术创新的答案,在2024年底和2025年年初发布的两篇技术报告——《DeepSeek-V3 Technical Report》、《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》,以及它们推出的开源模型之中。

    从目前的观察而言,DeepSeek的技术贡献主要体现在工程上的创新。它没有发明新的范式,但在现有技术的基础上进行了大量优化。

    让我们着重看看让DeepSeek出圈的核心工作:

    一、DeepSeek V2

    2024年5月,DeepSeek发布了V2模型,将API(Application Programming Interface,应用程序编程接口)价格大幅降低,定价为每百万tokens输入1元人民币、输出2元人民币,直接将价格打到GPT-4的1/35。

    DeepSeek掀起了大模型市场的价格革命。据《21世纪经济报》报道,2024年5月,百度旗下文心大模型两款主力模型全面免费。阿里云紧随其后,将通义千问GPT-4级主力模型的API输入价格从0.02元/千tokens降至0.0005元/千tokens,降幅达97%。

    DeepSeek V2的性能已经接近GPT-4,成为性价比极高的选择。可以说,国内其他同行还在努力追赶GPT-4的性能时,DeepSeek已经凭借低价和高性能脱颖而出。

    二、DeepSeek V3

    DeepSeek V3在V2的版本上,进一步强化了降本增效的能力。V3相当于是对标OpenAI GPT4o的预训练大模型,它以极低的算力成本,实现了和其他模型同等甚至表现更好的结果。

    DeepSeek之所以能做到降本增效,可能要归功于团队在工程层面做了大量的工作和创新,比如,在算法软件框架以及配合硬件的实现方面。

    在软件上,核心有两点,一个是MoE(Mixture of Experts,专家混合模型)的专家模型架构,“用空间换时间”。

    2023年,法国AI公司Mistral AI最早大规模开源MoE模型,它曾经推出Mixtral 8x7B模型,采用了8个专家,每次推理时激活其中的2个专家。

    DeepSeek则增加了专家数量,缩小了每个模型的规模。虽然单个专家性能有所下降,但整体性能却因“人多力量大”而提升。

    具体来说,DeepSeek的MoE架构把前向推理网络划分成了1个共享专家以及256个独立专家。模型每次预测的时候,只会激活共享专家以及另外256个专家中的8个专家,大大降低了算力消耗。

    此外,DeepSeek还在训练过程中通过偏离函数,调整专家负载,避免出现“强者越强,弱者越弱”的马太效应。

    虽然MoE架构很有价值,但在不少应用场景里,Dense Model(单一专家模型)也有优势,比如面向B端的专用领域或者端侧小模型。所以,我们也不能完全下定论,认为MoE未来就会“一统江湖”。大家有各自不同的模型架构,选择的应用场景也不同。

    另一点,MLA(Multi-head Latent Attention,多头潜在注意力)是DeepSeek成为“价格屠夫”的核心技术之一,这种方法是“用时间换空间”。

    大模型推理离不开Attention计算,而Attention计算中,KV缓存(Key-Value 缓存)是主要的存储开销。在Transformer模型的自注意力机制中,输入元素会被转换成查询(Query)、键(Key)和值(Value)这三种类型。KV 缓存就是在推理过程中,把先前步骤计算得到的 Key 和Value矩阵缓存起来,避免在生成新token时重复计算整个序列的Key和Value。

    DeepSeek通过矩阵分解的方法,将KV缓存压缩后再投影回高维空间,从而大幅降低了存储开销。这种技术原理简单但非常有效,实现了推理价格骤降。

    MOE和MLA结合在一起,降低了模型对硬件算力和显存带宽的需求,因此,DeepSeek让整体成本下降了一个数量级。

    前面谈到的是软件架构上的创新,那么在硬件架构实现上,DeepSeek V3第一次公开了很多新的工作。比如,用低精度的FP8(即8位浮点数表示法,是一种用于提高计算效率和动态范围的数据格式)做了大量的计算工作。再比如,通过大量PTX(Parallel Thread Execution,是NVIDIA为其GPU设计的一种并行指令集架构)的底层开发能力,“压榨”硬件的性能,来降低计算和通信的开销。

    所以,从DeepSeek V3整体的工作来看,其实没有太多概念创新,大多是站在前人肩膀上,优化了MoE、MLA等已有的方法,但却有极高壁垒的工程创新。

    以及,还有一个问题值得我们思考——V3中的这些工作,是团队主动创新的结果?还是只是硬件资源受限情况下的被动选择?如果能有更多更强的算力资源,这些创新是否还会出现,以及是否还有必要?

    三、R1 Zero和R1

    接下来我们再看看R1 Zero和R1,它们是对标OpenAI o1系列的推理模型。自从o1发布之后,业界和学术界对它的实现方法有很多猜想,甚至还有人说OpenAI团队主动放出了一些不相关或错误的方向来误导大家。

    抛开这些猜测不谈,这次DeepSeek发布了R1,实实在在地通过自己的探索,用强化学习实现了比肩o1的推理大模型,并开源了相关的工作,非常厉害。从我们的观察来看,强化学习是通向AGI的一个递进路径,业界已经在尝试这个方向。

    为什么在当下,大模型们开始“卷”起了推理能力?

    这一趋势的背后,是大模型在开放性问题上难以超越人类的困境。尽管大模型在诸多任务上表现出色,但在需要深度推理和专业知识的复杂问题上,它们仍然面临巨大挑战。

    以GPQADiamond基准数据集为例,该数据集专门用于评估模型在复杂问题上的推理能力和专业知识水平。即使是经过博士学术训练的人类,回答这些问题的准确率大约在65%到70%之间。而目前,大多数大模型在这类问题上的表现,仍远低于人类水平。

    可喜的是,已经有少数领先的大模型,如DeepSeekR1、OpenAI o1,它们在GPQADiamond等难题上的表现,已经超过经过博士学术训练的人类。

    这种进步揭示了行业竞争的焦点正在从单纯的规模扩展转向更深层次的智能优化。推理能力的“内卷”,可能意味着大模型进入了新的发展阶段。

    同样是推理模型,R1 Zero和R1有所区别:

    R1 Zero是更纯粹的RL-based Model,用DeepSeek自己的预训练模型V3,没有经过任何人类知识的调教,直接用一些数学或者代码的这类有明确“ground truth”(真实值,在机器学习和计算机视觉领域,指的是数据集中每个样本的真实标签或结果)的问题,做强化学习,得到了不错的结果。

    R1相比R1 zero,用了更多工程化的方法,也加入了类似模仿学习的SFT(监督微调),进一步提升语言能力和全面性能,用户来说更好友好。

    具体的技术细节和评测结果不详细展开了,强烈建议大家去读《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》这篇论文,写得非常清楚、优美。

    某种程度上,DeepSeek R1也没有发明任何新范式。OpenAI已经给业界指明了方向,一个是用纯粹的强化学习而非人类反馈做后训练,来提升模型推理能力。

    另一个是Test-Time Compute的方法,通过延长推理时间,来提高输出质量。模型不是直接输出结果,而是先推理出中间结果,随着推理时间的增加,最终结果的质量也会提升。这一点在大家用DeepSeek过程中应该都有体会,就是看到的那个中间有点儿自言自语的思考过程。

    因此,DeepSeek核心的贡献是帮助强化学习、Test-Time Comput这两个范式快速出圈。相比其他模型厂商,它手比较快,而且直接把工作开源了。

    但无论是R1中的强化学习框架GRPO,还是上文提到的用很多数学、代码问题来做reward(奖励机制),都是一些相对常用的方法。DeepSeek R1更多还是靠V3的强大能力,能在有限的搜索空间内找到正确答案,从而帮助模型快速迭代和收敛。打个比方,如果基础模型不够好,可能需要从1万个样本中找到1个正确答案;而好的基础模型,则可以在100个样本中找到正确答案,从而大大加快迭代收敛的速度。

    小结

    总的来说,DeepSeek的技术贡献主要体现在工程上的创新。尽管它没有发明新的范式,但在现有技术的基础上进行了大量优化,特别是在强化学习应用于推理模型方面。我们需要以更理性的心态来看待DeepSeek爆火。

    03 为什么是DeepSeek?

    为什么是DeepSeek?

    首先,从整体上看,模型的发展速度虽然很快,但其实AI行业整体的创新速度放缓了,不同团队的认知差异也在缩小,大家能想到的方法正在逐渐收敛。这种现象跟国别无关,是全球学术界和产业界共通的情况。当技术创新变慢的时候,中国团队的工程能力优势就体现出来了。

    第二,我们也不能忽视DeepSeek背后的这家公司——幻方量化,以及其“工程基因”的影响。要做好量化交易,一方面需要有强大的策略,但另一方面,能否以最快的速度执行这些策略可能更为关键。哪怕只是纳秒级别的速度优势,也可能决定你在某次交易中能否赚钱。

    幻方量化的基因使得DeepSeek在底层硬件优化和开发方面拥有丰富经验,从而能够加速算法的执行效率。例如,幻方量化在过去面对复杂的量化交易任务时,可能需要对FPGA(现场可编程门阵列)进行深度定制研发,并在C语言中嵌入汇编语言,以提高硬件调度的效率。

    这些工程经验已经体现在DeepSeek的V3版本中。比如,在优化GPU时,DeepSeek大量使用了在量化中交易中经常用到的底层开发思路,选择“绕过CUDA”,直接使用PTX进行编程,从而进一步提升性能。

    第三点,DeepSeek的商业模式和开源文化,支撑了他们的长期发展。这种长期性能够帮助团队建立研究导向和创新的文化。DeepSeek可能没有短期的营收和商业化压力,反而能吸引更多真正想做事的人才,“做正确而非容易的事情”。

    小结

    DeepSeek的成功源于多方面的优势:在AI行业整体创新放缓的背景下,中国团队的工程能力优势凸显;孵化公司幻方量化在硬件优化和高效执行方面的经验影响了DeepSeek;DeepSeek的商业模式和开源文化,使团队能够专注于技术创新而非短期商业化压力。

    04 Scaling law还成立吗?

    DeepSeek发展到了今天,那么大模型的未来会走向哪里?Scaling Law(缩放定律)还会成立么?

    大模型最开始出现时,其根基就是Scaling Law。Scaling Law描述了随着数据量、计算资源和模型参数的增加,语言模型性能如何显著提升。具体来说,从GPT到GPT-4,研究人员通过增加更多的数据、算力和模型参数,使得模型效果显著提高。这种规律为设计更大规模的模型提供了理论依据,并成为近年来大模型发展的核心驱动力。

    那么,Scaling Law在未来是否仍然成立?我们可以从三个方面来看。

    一、预训练阶段:Scaling Law接近极限

    在预训练阶段,目前业界共识是Scaling Law已经接近极限。主要问题在于缺乏新的高质量数据。在这种情况下,盲目增加模型参数可能导致过拟合,也就是说,模型对于见过的数据表现很好,但泛化能力反而下降,从而影响模型的整体性能。例如,OpenAI在开发GPT-5时遇到的困难,也反映了这一挑战。尽管如此,研究者们仍在努力推进。

    二、后训练阶段:Scaling Law优势显现

    在后训练阶段(post-training),Scaling Law的优势变得更加明显。无论是传统的监督微调(SFT),还是基于人类反馈的强化学习(RL),都能看到这种优势。最新的DeepSeek和其他模型系列已经开始采用基于强化学习的后训练范式,显示出良好的规模效应。

    值得注意的是,在后训练阶段,目前所需的算力还相对较少,平均仅占预训练阶段的1%不到。当然,这一比例正在逐渐增加。据业内人士推测,R1的后训练算力占比已经接近10%。如果能进一步扩大后训练的规模效应,那么模型的整体性能有望得到进一步提升。

    然而,在后训练阶段,大模型仍面临一些挑战,比如,怎么定义reward,这是做好强化学习的关键;以及获取高质量的数据,特别是专业问答和CoT(Chain of Thought,思维链)数据。目前,学术界和产业界正在探索人工标注和合成数据的方法来解决这些问题。

    三、推理阶段:延长推理时间,提升性能

    在推理阶段,Scaling Law同样有所体现,比如在上文提到的Test-Time Compute上。模型的输出过程本质上是一个计算过程。如果允许模型有更长的思考时间,它可以通过反复尝试和自我修正来优化答案。例如,模型可能一开始给出简单的答案,但在中间发现错误并进行调整,最终得出更准确的结果。这种方法能够显著提高模型输出的准确性,也是Scaling Law的一个具体表现。

    小结

    总结来看,Scaling Law仍然成立,只不过应用范式发生了变化,其在后训练和推理阶段依然具有重要意义。

    05 Deepseek给其他模型厂商

    带来什么影响?

    首先,我们需要明确一点:DeepSeek目前主要是一个大语言模型,暂时不具备多模态的能力。在与其他有多模态能力的模型进行比较时,需要考虑到这一点。

    一、对海外大厂的影响

    对于海外的大厂,如OpenAI(GPT-4系列)、Anthropic(Claude 3.5)和Google(Gemini 2.0),这些公司在多模态能力、泛化能力以及工具链开发者生态方面仍然具有显著优势。它们有很多的储备技术,因为战略考虑可能暂时不会都放出来。此外,它们在算力资源上也有明显的优势。

    尽管DeepSeek引起了广泛关注,但我们仍需正视与这些海外一线公司的差距,实现真正的超越还有很长的路要走。

    就在2月18日, 马斯克的xAI 发布了更新版 Grok 3大模型。 在直播的现场演示中,Grok 3在数学、科学和编程基准测试中,击败了包括DeepSeek的V3模型和GPT-4o在内的多个模型。

    二、对国内模型厂商的影响

    在国内市场,DeepSeek对于对面向消费者的(ToC)模型厂商影响较大,对于面向企业的(ToB)模型厂商影响相对较小。

    在ToC领域,部分厂商可能会感受到较大的冲击。这些厂商面临的挑战更多在于开源与商业化的选择:如果保持闭源,是否能达到一线模型水平?如果选择开源,是否会颠覆现有的商业模式?

    不过,我们不能低估国内其他模型厂商团队的技术创新能力。比如Kimi最新发布的K1.5模型在学术界获得了很高的评价,其工程创新也非常值得学习。

    目前来看,ToB的模型厂商也受到了一定的影响。长期来看,企业客户会做出理性决策,但在短期内,可能受市场情绪影响,尝试使用DeepSeek。这有助于教育市场,但长期效果还需观察。

    此外,DeepSeek本身其实也要考虑如何持续“接住泼天的富贵”。未来,DeepSeek是否会通过融资扩大规模,还是继续保持小规模专注于研发?我们拭目以待。

    三、对开源社区的影响

    DeepSeek对开源社区无疑是利好的。DeepSeek爆火,将促使其他开源模型(如Llama)不断创新,而不是固守已有成果。这对整个社区的发展是有益的,同时也促进了闭源厂商的进步。

    四、对小模型公司的影响

    DeepSeek曾在论文中展示了通过大模型的能力蒸馏(distillation)来提升小模型推理能力的可能性,并同步开源了基于通义千问Qwen或Llama的蒸馏模型。这表明,优秀的“老师”模型可以更高效地指导小模型学习。

    这将对自研模型的中小企业产生积极影响。尤其是在端侧部署的应用中,无论是C端还是B端应用,或许能借助这一方法提升性能。

    小结

    整体来看,DeepSeek虽然在多模态等方面有欠缺,但其无疑在推动行业的发展。我们既不能低估国内团队的技术创新能力,也需正视与这些海外一线公司的差距,想要实现真正的超越,我们还有很长的路要走。

    06 DeepSeek对硬件生态带来什么影响?

    接下来,我们讨论一下DeepSeek对硬件生态的影响。在DeepSeek最火的那几天,它对整个美股市场,尤其是英伟达的股价造成了短期冲击。那么,未来DeepSeek是否会挑战英伟达的地位?

    要回答这个问题,我们首先需要了解英伟达的核心壁垒是什么。英伟达的核心壁垒不仅仅在于其单芯片的设计能力,尽管这一点已经非常强大。更重要的是,英伟达通过其芯片互联能力(如InfiniBand、NVLink以及强大的软件生态系统CUDA)形成了一个坚固的生态壁垒。这种生态壁垒是英伟达最核心的能力之一。

    了解了英伟达的核心竞争力后,我们可以分析出DeepSeek对英伟达的影响。首先是正面影响:

    一、DeepSeek的成功教育了市场,增强了人们对AI应用的信心,并吸引了更多的初创企业尝试开发AI应用。

    据业内人士消息,自DeepSeek发布以来,市场上H100和H200等高端GPU的价格有所上涨,这表明更多公司愿意购买这些硬件来开发自己的模型和应用。

    二、推动通用GPU的需求。DeepSeek这样的厂商,持续在模型架构方面进行创新,这对英伟达这样的通用GPU制造商是有利的。因为通用GPU更适合用来尝试新的方案和架构,而一些专用芯片可能没那么适合。

    然而,DeepSeek也给英伟达带来了一些负面影响,比如英伟达的市场定价策略可能会受到冲击。

    原因在于,首先,DeepSeek采用的Mixture of Experts (MoE) 架构显著降低了对芯片间互联能力的要求,从而减少了对高端互连技术的依赖。如果越来越多的模型厂商开始采用MoE或其他类似的架构,将会带来新的硬件机会。

    其次,DeepSeek提供了潜在“绕过”CUDA的可能性。DeepSeek提出了适配其模型的硬件架构设计需求,暗示着未来“绕过”英伟达的CUDA生态系统的可能性。

    同时,国产芯片对DeepSeek模型的快速适配,也反映了中国硬件行业的潜力。但需要注意的是,DeepSeek团队并没有直接绕开英伟达。DeepSeek使用了比CUDA更底层的编程语言PTX,以便于更好地发挥出硬件性能,而PTX是英伟达的核心技术。

    DeepSeek是否推动了除英伟达以外的AI芯片行业的创新机会?这也是我们非常关注的一个热点方向。

    短期来看,DeepSeek确实带动了许多低性能卡的应用,包括一些国产卡。只要企业具备足够的工程优化能力,这些卡就能够被用起来,我们也能实现软硬件闭环式的自主创新。

    长期来看,AI芯片行业无疑存在新的机会。除了近期备受关注的新硬件架构(如3D堆叠、大规模互联技术和高显存设计)外,编译和软件生态的建设也至关重要。正如我们在讨论英伟达壁垒时所提到的,仅有单芯片能力和互联能力是不够的,整个软件生态系统才是决定其长期成功的关键因素。

    小结

    总的来说,DeepSeek一方面对英伟达带来了挑战,另一方面,也为整个AI芯片行业带来了新的机遇和发展方向。对于行业参与者来说,如何适应这种变化并找到适合自己的发展路径,将是未来需要重点考虑的问题。

    07 DeepSeek如何影响应用生态?

    我们再来讨论DeepSeek对整个应用生态的影响,可以从三个方面来看:

    一、提供了低成本方案,完成了市场教育

    首先,DeepSeek提供了一种非常低成本的方案,这显然能够为应用(无论是ToC还是ToB)带来更高的投入产出比,并助推更多的行业应用落地。

    在短短几周内,DeepSeek完成了全市场的教育,使政府、企业高层管理人员以及普通用户都开始使用相关的大模型。甚至我们的父母都开始用起了大模型。

    然而,在短期内,市场可能会存在高估的情况。尤其是在B端,实际落地效果可能会与预期有所偏差。从我们问到的几家企业的反馈来看,客户的呼声很高,但实际测试结果显示,DeepSeek在某些任务上的表现,可能并没有外界传闻的那么领先。

    二、验证了大模型蒸馏小模型的可行性

    其次,DeepSeek R1验证了大模型蒸馏小模型是可行的,这对于端侧模型部署和应用有很大推动作用。无论是在PC、手机还是其他智能硬件上,部署成本的大幅降低,将推动更多新应用落地。这对于我们投资在端侧部署的应用有重要意义。

    三、助推强化学习这种计算范式

    从更长期一些来看,DeepSeek影响了强化学习这一计算范式。R1已经验证了这种范式,真正公开了用强化学习来做推理模型的这个可能的路径。

    但目前,强化学习的应用范围主要局限在数学或代码等相对客观的领域。未来,这种计算范式是否能够扩展到物理世界,并解决更多现实世界的推理问题,以及如何应用于AI agent和具身智能,是非常令人兴奋且值得探讨的方向。

    小结

    通过对以上七个问题的探讨,我们可以看到,DeepSeek对AI芯片行业和应用生态产生了深远的影响。

    毫无疑问,DeepSeek的贡献令人敬佩。但当前市场是否明显过热?或许对于投资人、创业者以及使用大模型的朋友来说,我们不妨让子弹再飞一会儿,冷静观察一段时间。与此同时,我们期待中国市场能诞生更多像DeepSeek这样的原始创新成果。

    08 投资机会

    一、大模型竞争进入下半场

    大模型的竞争已进入下半场。

    在丰叔看来,大模型下一步会向轻量化、垂直化、端侧化这三个方向发展。轻量化意味着模型和硬件成本需要收敛,不然能用得起的人有限。垂直化则意味着模型需要在特定能力上收敛,而不是指望一个超大模型解决所有问题。端侧化是指模型必须放到手机、手表、耳机等终端设备上,才能真正实现技术的普及。

    随着下游应用逐步实现规模化落地,模型训练、微调和推理效率成为行业关注的焦点。

    以DeepSeek为代表的创新实践表明,强化学习和长文本生成能力有助于提高大模型输出质量、提升小模型性能。尽管MOE架构增加了软件系统的复杂性,但它显著优化了硬件带宽需求,降低了硬件门槛,使得成本更低的硬件也能高效运行模型。

    未来,随着模型能力的进一步提升和总成本的持续下降,AI普惠将成为下一阶段的核心目标。技术的普及将推动大模型在更广泛的应用场景中落地,创造更多商业与社会价值。

    二、人机交互发生变化,AI落地的应用临界点似乎已经到来

    当下,人与信息、人与机器的交互方式正在发生深刻变化。这种变化将催生新的信息分发渠道和流量入口,推动用户界面和服务形式的创新。另一方面,随着人工智能能力的不断增强以及成本的降低,许多行业都在积极探索AI技术的应用落地。

    在这样的背景下,我们应当关注一些在传统软件时代难以实现的“新物种”,例如:

    跨领域结合的软件或Agent:通过软件与硬件的深度融合,Agent能够实现更强的独立性和更丰富的功能,从而为用户提供更高效、更智能的服务。

    新形态的个人交互终端:随着数字化的进一步普及和多模态技术进步,AI有望接入更多数据,成为人类的“外脑”,帮助我们处理记忆、理解甚至是决策等任务。

    新型人力服务外包:将软件能力转化为服务形式进行外包,提供更具创新性和灵活性的新型外包服务,满足不同行业的需求。

    未被软件化的行业:这些领域中蕴含着丰富的AI落地机会,值得我们深入挖掘和探索。

    展望未来,随着供应链能力的不断提升,中国的AI技术有望进一步拓展海外市场,实现全球化布局。

  • DeepSeek冲击波,阿里、小米、字节上演AI人才争夺“三国杀”

    周四,美国苹果和谷歌应用商店都放开了对TikTok的下载限制,重新上架了这款应用。几周前,两家平台根据美国相关禁令下架了TikTok。在DeepSeek出圈火爆全球后,国内互联网与科技大厂加快了AI人才争夺。继小米和字节跳动相关动作之后,《科创板日报》了解到,阿里AI To C业务近期开启大规模人员招聘,开放招聘岗位达到数百个,集中在AI大模型相关的产品、技术研发岗位。

    近期阿里在AI和云计算方面动作频频。在确认与苹果的手机AI合作后,而马云也在近期多次露面,上周现身夸克所在的阿里智能信息事业群办公区后,又于2月17日在北京出席了民营企业座谈会。

    据悉,此次阿里对外招聘岗位数量达数百个,其中AI技术、产品研发岗位占比达到90%,主要主要分布在AI产品和AI技术研发方向,将重点投入到文本、多模态大模型、AI Agent等前沿技术与应用的相关工作中。

    小米、字节与阿里巴巴上演AI人才争夺战

    在 AI 领域蓬勃发展的当下,人才成为各企业竞争的关键资源。近期,小米挖角 DeepSeek 天才少女罗福莉的消息引发广泛关注。罗福莉,这位 95 后 AI 新星,本科毕业于北京师范大学计算机专业,硕士深造于北京大学计算语言学专业。其学术成绩斐然,在国际顶会 ACL 上一次性发表 8 篇论文,其中 2 篇为第一作者,提出的词义消歧方法和文本风格转换框架在业界引发轰动。

    就在昨天,字节跳动也向《科创板日报》记者证实,在谷歌工作长达17年的“Google Fellow”吴永辉已离开谷歌,正式入职字节跳动。吴永辉在字节跳动将担任大模型团队Seed基础研究负责人,专注大模型基础研究探索、AI for science等偏长期的研究探索工作,汇报给字节跳动CEO梁汝波。

    DeepSeek在资金与人才并不显优势的情况下,取得全球性轰动效应,让所有的大厂都受到了震动。梁汝波在字节跳动新一期全员会上称,DeepSeek R1创新点之一的长链思考模式不是业界首创。去年9月OpenAI发布长链思考模型、成为行业热点后,字节意识到技术重大变化,但跟进速度不够,如果当时及时关注到,有机会更早实现。 他提出2025年重点目标:追求 “智能”上限。

    相比之下,阿里在引进AI人才方面一直不手软。2月初,全球顶尖人工智能科学家、前Salesforce集团副总裁许主洪出任阿里集团副总裁,负责AI To C业务的多模态基础模型及Agents相关基础研究与应用解决方案。内部人士透露,许主洪目前正在筹备规模超百人的顶级AI大模型研究团队,推动前沿科研成果向实际应用解决方案的转化。

    阿里巴巴在AI领域布局多年,但过去主要集中在B端业务。2024年第三季度财报显示,阿里云整体收入296.1亿元,同比增长超过7%,经调整EBITA利润达到26.61亿元,同比增长89%。阿里云的业绩由公共云业务的双位数增长带动,其中包括AI相关产品采用量的提升,AI 相关产品收入连续五个季度实现三位数的同比增长。

    从去年年底开始,阿里在AI To C业务发力,把阿里旗下AI应用“通义”并入阿里智能信息事业群,由该部门扛起阿里AI To C的重任。就在上周,阿里巴巴创始人马云现身还现身夸克办公区,与员工打招呼交流。

    “AI驱动”战略下阿里全力由电商拥抱科技

    近期,阿里方面还确认了与苹果的合作,将为苹果在中国的iPhone用户开发新的AI功能。除了手机外,阿里也在推动通义系列大模型落地AI眼镜,包括与消费级AR品牌雷鸟创新RayNeo签约,为其AI眼镜提供独家定制的技术支持。天猫精灵团队也与夸克产品团队在融合工作,探索AI眼镜等新硬件方向。

    在云基础设施方面,阿里云今日宣布墨西哥数据中心正式开服,这是阿里云在拉美区域的首个数据中心,标志着进军南美的重要一步。去年五月,阿里云宣布新一轮全球基础设施扩建计划,将在泰国、墨西哥、马来西亚、菲律宾和韩国投资新建数据中心。目前,阿里云在全球29个地域覆盖87个可用区。

    2月20日,阿里巴巴将公布2025财年第三季度业绩。摩根士丹利发表报告称,预计财报中将提及未来的资本支出计划和公共云收入展望,如果阿里巴巴宣布将加大AI相关投资,将进一步提升整个数据中心行业的新订单预期。

    对于阿里而言, 与苹果的合作其提出“AI驱动”战略以来的一次重要商业突破。谈及阿里与苹果的合作前景,Countpoint相关分析师认为,未来苹果在中国可能会倾向于采用多供模式,会引入更多的大模型服务商。但阿里作为此次合作的先行者,将享有一定时间的独家合作,随着市场的不断发展,百度、字节跳动、DeepSeek 等公司也可能成为潜在的供应商。“我们预测支持中文的 Apple Intelligence,也是首个支持非英文的版本将在2025年内正式发布。”

    艾媒咨询CEO张毅对《科创板日报》表示,与苹果合作后,未来阿里的AI产品都有了与C端用户亲密、直接的接触以及真实的应用场景。这些对于阿里未来的商业转化具有较大的价值。此外,阿里不只是电商平台,其背后也有强大的生态,比如高德、文娱等,如果能与苹果的相关数据形成共振,特别是数据资源方面的商业合作,有巨大的想象空间。

    不单单是阿里,跟阿里同根的蚂蚁集团近期也动作频频。近日,有招聘平台信息显示,蚂蚁集团开放招聘具身智能人形机器人系统和应用等岗位。蚂蚁集团相关人士表示,蚂蚁集团去年注册成立了蚂蚁灵波科技有限公司,聚焦具身智能技术和产品研发。“蚂蚁集团在持续布局和加大AI投入。 ”

  • 马斯克的Grok3背后还藏着哪些华人AI大牛?

    马斯克的Grok3背后还藏着哪些华人AI大牛?

    北京时间2月18日中午,马斯克为xAI亲自现身站台的Grok-3发布会上,两位坐在“C位”的华人研究员引人注目。对“老马”来说,这场直播有些“复仇”OpenAI的意味——马斯克在直播中花式强调,“Grok-3研究18个月就追上甚至超越了OpenAI做了五六年的成果”。

    “Jimmy Ba,Leading research(首席研究员)”“Tony,working on the reason team”——两幅华人面孔的自我介绍堪称轻描淡写。

    《职场Bonus》据公开资料检索到,马斯克一旁的“Tony”(下图右2),是xAI的联合创始人之一 Yuhuai Wu (吴宇怀)。2021年多伦多大学博士毕业后,吴宇怀在斯坦福大学进行博士后研究。他曾是Google AI的研究员,个人的研究兴趣是“building machines that can reason”(制造会推理的机器) [1] 。

    ● Grok-3发布会

     

    ● xAI团队里的已知华人大牛

    值得一提的是,吴宇怀博士期间曾先后在OpenAI实习过4个月,谷歌DeepMind实习过11个月。而他现在没有留在任何一家公司,自己选择了创业,追寻自己向往的AGI。

    ● 吴宇怀的X主页,xAI联合创始人,关注推理

    而图左边第二座那位更是领域的带头人。 Jimmy Ba 是“深度学习三巨头之一”。他硕博都就读于多伦多大学,是AI“教父”、诺贝尔物理学奖获得者Geoffrey Hinton的学生。不仅如此,他也是多伦多大学计算机科学系助理教授,相当于也是吴宇怀的老师。更有趣的是,Jimmy Ba也曾在谷歌DeepMind实习。

    同时,他们两位也都是xAI团队的创始成员。

    ● Jimmy Ba的X主页,xAI研究负责人,从事软件与研究

    据麦克罗波洛智库的报告 [2] ,在美国顶尖人工智能人才中,来自中国的研究人员占38%,美国占37%。中国在人工智能领域的人才培养上已超过美国,成为全球最大的AI研究者输出国。

    在xAI团队中更是体现了这一点:

    · 创始团队12人中有5位华人,占比超40%;

    · 图像团队4人中有2位华人;

    · 核心研究团队持续有优秀华人加入。

    2023年7月,马斯克高调官宣xAI创始团队12人,其中有五位都是华人,占比超40%。除了吴宇怀和Jimmy Ba之外,还有Greg Yang(xAI数学家)、Guodong Zhang、Zihang Dai。另外还有一位负责AI硬件和半导体研究的华人高管,Xiao Sun。

    ● xAI创始团队

    从他们的教育背景来看,既有清华、北大、浙大国内顶尖高校的毕业生,也有哈佛、耶鲁、多伦多等世界名校的深造经历。几位科学家也都在各自的领域颇有建树。

    Greg Yang (杨格)是一位对数学有着超高热情的数学家。他是湖南人,初中就开始去美国学习,本硕毕业于哈佛大学数学系,2018年还曾获得本科生数学领域最高荣誉Morgan Prize。毕业后经推荐进入微软雷蒙德研究院,担任研究员。此前也参与过微软与OpenAI在大模型上的合作。现在正专注开发一个用于了解大型神经网络的框架,“Tensor Programs”(张量编程)。

    ● Greg Yang

    Guodong Zhang (张国栋)本科毕业于浙江大学信息工程专业,博士毕业于多伦多大学,师从Roger Grosse,专注于培训、调整和对齐大语言模型。曾获得2022年苹果博士奖学金、2015年全国大学生数学建模竞赛一等奖(1.5%)等。

    ● 张国栋,xAI创始成员

    Zihang Dai (戴子航)本科毕业于清华大学,硕博毕业于卡耐基梅隆大学。曾在网易实习一年,而后在2013年入职百度,担任百度深度学习研究所的工程师。读研期间,也曾在美国的百度实习。读博期间在谷歌实习,专注语言处理。博士毕业后在Google Brain就职研究员4年,来到xAI。

    ● 戴子航,xAI创始成员

    Xiao Sun,前IBM T.J. Watson Research Center(托马斯·J·沃森研究中心)研究员、Meta研究科学家。Xiao Sun是耶鲁大学博士,师从T. P. MA Group教授,本科就读于北京大学。毕业后他在IBM度过了六年多的职业时光,专注于机器学习硬件与算法的研究。2023年9月加入xAI。

    ● Xiao Sun,xAI高管,关注AI硬件和半导体研究

    不仅创始团队中华人占多数,据《新智元》消息, Grok 发布的文生图模型 Aurora,采用当下最为前沿的 MoE 架构。其团队在短短 6 个月的时间里,便实现了从0到1的搭建。而团队仅有4人,其中就有两位华人:Haotian Liu和Lianmin Zheng(郑怜悯)。

    其中, Haotian Liu 本科毕业于浙江大学,2024年5月博士毕业于威斯康星大学麦迪逊分校,师从Yong Jae Lee。Haotian Liu对计算机视觉和机器学习感兴趣,参与开发Llava,Grok-1.5V和Grok-2,最近的重点是构建可进行的大型模型。

    ● Haotian Liu,文生图团队成员

    郑怜悯 本科毕业于上海交通大学ACM班,2024年博士毕业于加州大学伯克利分校,导师是Ion Stoica和Joseph E. Gonzalez。郑怜悯的研究兴趣包括机器学习系统,大型语言模型,编译器和分布式系统。

    ● 郑怜悯,文生图团队成员

    除此之外,xAI中还有很多华人研究员,如:

    曾在微软、推特、脸书、字节等任职过,硕士毕业于上海交通大学的 Xiaobin Wu ,有着多年 Backend Engineering/Engineering Manager/Engineering Director(后端工程/工程经理/工程总监)开发和管理经验。

    ● Xiaobin Wu,xAI技术人员

    毕业于清华大学,曾在谷歌任职近8年的 Yunlong Liu 。 2017年于约翰霍普斯金大学博士毕业,攻读计算机生物物理学。在谷歌时主要负责Core ML complier(核心机器学习编译)/Runtine (OpenXLA/PjRt) Large-scale ML systerm(运行大规模机器学习系统)。现在在xAI负责大规模AI Infra和LLM Pretraining。

    ● Yunlong Liu

    毕业于台湾大学,曾在Linkedin任职近3年的 Pin-Lun (Byron) Hsu 。Byron目前在xAI负责full stack of ML system(ML系统全栈)工作。曾经领导过领英增长最快的开源项目“Liger-Kernel”项目的Kernel optimization(核心优化),并负责过领英SGLang项目的Inference Optimization(推理优化)。

    ● Pin-Lun (Byron) Hsu

    马斯克的xAI团队晚成快赶,18个月追逐OpenAI。在AI这个快速发展的领域,人才的流动与聚集将持续改变着行业格局。

    这种”后发制人”的赶超,很大程度上得益于团队的人才结构。一方面,经验丰富的决策者必不可少。正如xAI从谷歌、微软等头部公司吸纳了很多经验丰富的顶尖科学家,来带头领路。

    另一方面,xAI也吸引了像郑怜悯、Haotian Liu这样充满创造力的毕业生。正如最近爆火的DeepSeek创始人梁文峰在采访中所说,他们的团队中有相当一部分是刚毕业的学生。这些”新生力量”虽然工作经验有限,但往往能带来意想不到的创新突破。

    在这场人才迁徙中,顶尖科学家们追求的已不仅是优厚的薪酬待遇,更看重”共同的愿景”。能在热爱的领域充分施展才华,往往是企业对人才最具吸引力的因素。

    也折射出人才迁徙的一个深层规律:年轻的人重在找到热爱,而有经验沉淀的人重在忠于热爱。

  • 第一批DeepSeek开发者,已经开始逃离了

    第一批DeepSeek开发者,已经开始逃离了

    在DeepSeek服务繁忙的回复背后,不只是普通用户的焦急等待,当API接口响应突破临界阈值,DeepSeek开发者的世界,也出现了持续震荡的蝴蝶效应。

    1月30日,接入DeepSeek的base北京的AI开发者林森,突然收到程序后台报警,还没来得及为DeepSeek的出圈高兴几天,林森的程序便因为无法调用DeepSeek,后台被迫瘫痪了3天。

    一开始,林森以为这是因为在DeepSeek的账户余额不足导致的。直到2月3日春节假期过后返工,他终于接到了DeepSeek暂停API充值的通知。此时,尽管账户内余额充足,他也无法再调用DeepSeek了。

    林森接到后台通知的第三天,DeepSeek官方于2月6日正式对外发布公告,宣布暂停API服务充值。近半个月过去,截至2月19日,DeepSeek开放平台的API充值服务仍未恢复正常。

    图注:DeepSeek开发者平台仍未恢复充值 图源:字母榜截图

    在意识到后台瘫痪是由于DeepSeek服务器过载,而自己作为开发者,长达数天,却没有收到任何提前告知,更没有任何售后维护服务时,林森有种“被抛弃”的感觉。

    “就像家门口有一家小店,你是老顾客,办了卡,一直和老板相处很好。突然有一天,小店被评为米其林餐厅,老板把老顾客抛在一边,之前办的卡也不认了。”林森形容道。

    作为2023年7月开始部署DeepSeek的第一批开发者,林森为DeepSeek的出圈感到振奋,但如今,为了维持运转,他只能切换至ChatGPT,毕竟“ChatGPT虽然贵一点,但至少稳定。”

    当DeepSeek从口口相传的小店变成网红打卡的米其林餐厅,更多和林森一样调用无门的开发者们,纷纷开始逃离DeepSeek。

    2024年6月,小窗AI问答机在产品早期阶段就接入了DeepSeek V2,让小窗合伙人娄池颇为惊艳的是,那个时间点,DeepSeek是唯一能全文背诵《岳阳楼记》不会出错的大模型。因此,团队用DeepSeek承担了产品最核心的功能角色之一。

    但对于开发者而言,DeepSeek虽好,稳定性却始终有所欠缺。

    娄池告诉字母榜(ID:wujicaijing),春节期间,不仅是C端用户访问繁忙,开发者们也时常无法调用DeepSeek,团队决定选择几个已经接入DeepSeek的大模型平台同时调用。

    毕竟,“现在已经有几十个平台有满血版DeepSeek R1了。”用这些大模型平台的R1,配合Agent和Prompt,也能满足用户的需求。

    为了争抢DeepSeek外溢而出的开发者群体,有头部云厂商开始面向开发者频频举办活动,“参与活动就免费送算力,如果不大批量调用,小开发者几乎能免费使用。”易标AI技术总监杨惠超表示。

    不过,DeepSeek热度当前,在第一批开发者们出逃之际,更多开发者仍在蜂拥而至,希望蹭到前者的流量红利。

    郗鉴创业的项目,是通过调用DeepSeek的API来进行角色扮演的AI陪伴APP,2月2日上线首周就获得了约3000名的活跃用户。

    尽管有用户反馈DeepSeek的API调用时有报错,但已经有60%的用户希望郗鉴尽快推出安卓版。在郗鉴的社交媒体后台,每天都有至少几十个用户私信要下载链接,“搭建在DeepSeek上的AI陪伴平台”,无疑成了APP出圈的新标签。

    经字母榜统计,在DeepSeek官网内收录的接入DeepSeek的各类APP名单,2025年前APP名单仅有182行,如今已经扩展到了488行。

    一面是DeepSeek成为“国产之光”爆火出圈,7天涌入1亿用户,另一面,则是第一批部署在DeepSeek上的开发者,正因为过载人流导致的服务繁忙,而纷纷转投其他大模型。

    对开发者而言,长时间的服务异常不再是简单的故障,而演变成为代码世界和商业逻辑间的裂缝,他们被迫在迁移成本下进行生存演算,无论是涌入,还是逃出,开发者们都需要面对DeepSeek爆火带来的余震。

    A

    春节期间小程序后台被迫瘫痪三天后,至大年初六,为了保证程序正常运转的林森,离开已经部署一年多的DeepSeek,转回了ChatGPT。

    即使API调用价格高了近10倍,但此时保证服务的稳定,成了优先级更高的选项。

    值得注意的是,开发者离开DeepSeek转向其他大模型,并不如用户在APP内切换调用模型一般轻松。“不同的大语言模型,甚至是同一个语言模型的不同版本,对于提示词的反馈结果都有细微的差别。”即便林森仍在持续调用ChatGPT,将所有关键节点从DeepSeek迁移ChatGPT,并保证稳定且高质量的内容反馈,仍然花了他半天多的时间。

    切换这个动作本身也许只需要两秒钟,但“更多开发者,换一个新模型要花上一个星期反复调整提示词,并重复测试。”林森告诉字母榜,

    在林森这样的小开发者们看来,DeepSeek服务器不足可以理解,只是如果能提前通知,能避免许多损失,无论是时间成本,还是APP维护成本。

    毕竟,“登录DeepSeek开发者后台需要手机号注册,只需要一个短信,就可以提前告知开发者。”如今,这些损失将由曾在DeepSeek默默无名时就开始支持他们的开发者自己承担。

    当开发者和某个大模型平台深度耦合,稳定性无疑成了不必宣之于口的契约,一个频繁波动的服务接口,足以让开发者重新审视对平台的忠诚度。

    就在去年,林森在调用Mistral大模型(法国头部大模型公司)时,因为Mistral账单系统错误而重复付费,在他发出邮件后,Mistral不到1小时就纠正了问题,并附上了100欧元的代金券作为赔偿。这样的应对,也让林森产生了更多信任。如今,他也将一部分服务迁回到了Mistral。

    易标AI技术总监杨惠超则在DeepSeek V3 版本发布之后,就开始酝酿一场逃离。

    不用DeepSeek来写诗或者吐槽,如果用DeepSeek来写标书呢?负责公司内AI标书项目的杨惠超,在DeepSeek推出V3版本后已经着手寻找替代方案。对他来说,在标书这样的专业领域,“DeepSeek稳定性越来越不足。”

    DeepSeek R1版本火出圈的推理能力,并不吸引杨惠超。毕竟,“作为开发者,软件主要的推理能力是靠程序和算法,并不是太依靠模型的基础能力。底层即便用最老的GPT 3.5,依靠算法纠正都可以产出一个很好的结果,模型只要回复答案稳定就可以。”

    在实际调用过程中,DeepSeek在杨惠超眼中,似乎更像是一个聪明却会偷懒的“好学生”。

    升级V3版本后,杨惠超发现,DeepSeek对一些复杂问题有了更高的回答成功率,但稳定性却也攀升到了难以接受的程度,“现在问10条问题,至少有一条输出不稳定,在要求生成的内容之外,DeepSeek往往喜欢自由发挥,额外生成和问题无关的内容。”

    比如,标书内不允许出现错误字符,同时,大模型返回的结果,开发者们往往指定用Json 结构(用指令每次调用大模型使得稳定返回固定字段)去输出数据,便于后续函数调用,但出现错误或者不准确,都会导致后续调用失败。

    “DeepSeek R1,或许相对此前的V3版本,推理能力提升了很多,但是稳定性达不到商业化的水准。”在@生产力Mark账号内,杨惠超提到。

    图注:DeepSeek V3生成过程中出现乱码 图源:@生产力Mark账号

    作为2024年初,DeepSeek-coder时期就加入的第一批用户,杨惠超并不否认DeepSeek是一个好学生,只是如今,为了保证生成标书的质量和稳定性,杨惠超只能将目光转向国内其他更偏B端用户的大模型企业。

    毕竟,曾经被称为AI界拼多多的DeepSeek,正是凭借着性价比的标签,迅速聚集起一批中小AI开发者。但现在想直接稳定地调用DeepSeek,就必须进行本地部署。“部署一个 DeepSeek R1,需要 30万 ~ 40 万元的成本,如果用线上的 API计算,30万元我一辈子都用不完。”

    既不够便宜,又不够稳定,调用无门的杨惠超们,正在批量离开DeepSeek。

    B

    曾经,林森们是第一批坚定选择DeepSeek的人。

    2024年6月份,林森在开发自己的AI 小程序少年听世界时,曾经对比了当时国内外几十家大模型平台。他需要用大模型每天处理数千条新闻,并且筛选、排序,找出适合青少年听的科技、自然新闻,并且对新闻文字进行处理。

    这不仅要求大模型聪明,还得便宜。

    涉及到每天数千条的新闻处理,对token的消耗极大,对独立开发者的林森来说,ChatGPT模型很贵,只适合处理核心环节,对大量文本的快速筛选和分析,还要靠别的价格更低的大模型做支持。

    同时,无论是国外的Mistral、Gemini ,还是ChatGPT,调用都很繁琐:你需要在国外有一个具体的服务器,还要做中继站,同时需要用国外的信用卡购买token。

    林森便是通过英国朋友的信用卡,才能在ChatGPT账户完成充值。而一旦服务器在海外,API 响应速度也会有所延迟,这都让林森将目光投向国内,寻找一款ChatGPT平替。

    DeepSeek让林森颇为惊艳。“当时DeepSeek并不是最有名的,但却是反馈最稳定的。”以每10秒请求一次API调用为例,其他国内大模型100次内可能有30%的时候,不返回任何内容,但DeepSeek次次返回,并都能维持不逊色ChatGPT和BAT们大模型平台的回复质量。

    而相比起ChatGPT和BAT们的大模型API调用价格来说,DeepSeek真的太便宜了。

    林森将大量新闻阅读和初步分析的工作交给DeepSeek后,发现DeepSeek的调用成本10倍低于ChatGPT。经过指令优化后,每天调用DeepSeek的成本低到2-3元,“可能跟 ChatGPT相比,它不是最好的,但DeepSeek的价格是极低的,对于我的项目来讲,它的性价比非常高。”

    图注:林森用大模型收录新闻并分析(左) 最终呈现在少年听世界小程序(右) 图源: 林森提供

    性价比,成了开发者们选择DeepSeek的首要原因。2023年,杨惠超一开始将公司的AI项目从ChatGPT 切换到了Mistral,主要便是为了控制成本。随后2024 年 5月份DeepSeek推出V2版本,将API打到了2元每百万token,这无疑是对其他大模型厂商的降维打击,这也成了杨惠超将公司做AI标书工具的项目切换到DeepSeek的缘起。

    同时,经过测试后,杨惠超发现,国内早已靠云服务在B端吃下市场的BAT们,“平台太重了”。

    对于易标AI这样的初创公司来说,如果选择BAT,会面临云服务的捆绑消费。对于只是简单调用大模型服务的杨惠超来说,无疑DeepSeek的 API 调用更加省事。

    在迁移成本上,DeepSeek也胜了一筹。

    无论是林森还是杨惠超,初始的APP开发都是基于OpenAI 的接口形式,如果切换到BAT们的大模型平台,都要把底层重新开发一遍。但DeepSeek兼容 OpenAI like接口,切换大模型只需要修改平台地址,“1分钟无痛切换。”

    小窗AI问答机正式销售的第一天就搭载了DeepSeek,并将5个核心角色中语文和作文指导的角色交给了DeepSeek进行构建。

    作为合伙人,娄池也在去年6月就被DeepSeek惊艳到。“DeepSeek在中文理解上能力很棒,是那个时间点唯一全文背诵《岳阳楼记》不会出错的大模型。”娄池告诉字母榜,相比起其他大模型中规中矩、班味十足的文档式输出,用DeepSeek教孩子写作文,往往赢在了写作的想象力上。

    在社交媒体风靡用DeepSeek写诗、写科幻小说之前,DeepSeek的华丽文风,就让小窗AI团队眼前一亮。

    对于开发者们来说,他们仍在期待DeepSeek恢复调用,眼下无论是迁移到BAT们部署了满血版DeepSeek R1的平台,还是转向其他大模型厂商,都似乎是“菀菀类卿”。

    C

    但竞争对手正在努力追平DeepSeek深度推理的出圈特长。

    国内,近期百度、腾讯都陆续在自研大模型中加入深度思考能力;国外,OpenAI也在2月紧急上新“Deep Research”,把推理大模型的思考能力用于联网搜索,并将对Pro、Plus和Team用户开放。谷歌人工智能实验室(Google DeepMind)也在2月发布了Gemini 2.0模型系列,其中2.0 Flash Thinking实验版本则是一款增强推理能力的模型。

    值得关注的是,DeepSeek仍然以文本阅读为主,但不管是ChatGPT还是Gemini 2.0,在支持深度思考之余,都已经将推理能力引入多模态,支持视频、语音、文档、图片等多种输入模态。

    对DeepSeek来说,在追赶多模态之余,更大的挑战还来自竞争对手在价格上的逼近。

    在云平台部署侧,一众头部云厂商都选择接入DeepSeek,一边分食流量,一边靠云服务绑定客户。对DeepSeek大模型的调用,某种程度上甚至成了绑定企业云服务的“赠品”。

    百度创始人李彦宏近期提出,在大语言模型领域,“每12个月,推理成本就可以降低90%以上。”

    在推理成本下降的趋势下,BAT们的API调用价格持续走低已成必然,DeepSeek的性价比优势,正在迎来大厂新一轮价格战的压力。

    不过,大模型API价格战只是起步,面向开发者,大模型厂商们还拼起了服务。

    林森接触过大大小小众多的大模型平台,让他印象深刻的是,某科技大厂会有专门的客户经理进行对接,无论是不稳定还是出现技术问题,都会主动和开发者联系。

    而尽管作为一个开源的大模型平台,目标是为开发者提供更普惠的AI支持,DeepSeek甚至在官网没有面向开发者出具发票的入口。

    “每次API充值完,不像其他大模型平台一样可以直接在后台开发票,DeepSeek需要绕到官网外,添加客服企业微信开具发票。”杨惠超告诉字母榜,无论是价格还是服务,DeepSeek“性价比”的标签,似乎都有点立不稳了。

    某头部大厂AI产品经理告诉字母榜,有的互联网公司leader坚持用DeepSeek替换原有大模型,完全不管替换模型重新调整Prompt所耗费的时间。同时,即便满血版的DeepSeek R1,也有不少通用能力如‌Function calling等并不支持。

    相比起用云服务跑通了B端服务场景的BAT们,在便捷度上,DeepSeek仍然差着AI大厂一截。

    只是DeepSeek的流量效应暂未褪去,赶潮人依然众多。

    有部分公司宣称接入DeepSeek,只是开始调用API,充值了几百块。有的公司公告部署了DeepSeek模型,但其实只是让员工看了看B站教程,下载了一键安装包。在这波DeepSeek热潮里,泥沙俱下,鱼龙混杂。

    潮水终将褪去,但DeepSeek要做的功课显然更多了

  • 只花30分钟,我真用DeepSeek磕出了一款游戏,能去大厂了吗?

    只花30分钟,我真用DeepSeek磕出了一款游戏,能去大厂了吗?

    “让人始料未及的是,哪怕游戏业早已将AIGC奉为圭臬,但变革当头,我们仍会懊悔过去对AI的想象竟如此贫瘠。”

    把时间拉回到数天前,或许是受到国产AI大模型DeepSeek触动,心动CEO Dash    (黄一孟)在X上分享了现阶段对AI应用场景的一些看法。

    他提到:“理论上从现在开始,    公司里不应该有任何人的工作与AI无关。无论工作内容是否由AI产出,至少工作结果要由AI检查一轮。”在笔者印象中,这似乎是自蔡浩宇、冯骥之后,又一位行业大佬公开表示对AI的强烈看好。

    需要注意的是,这段时间众多游戏人下场力挺DeepSeek,只是当代AIGC大流行的一处缩影。在过去一个月时间里,被冯骥评为国运级科技的DeepSeek,正不断冲刷游戏人对AI技术的固有认知。

    例如在最为活跃的民间应用层面。明明该技术出圈还没过多久,    但诸如“小白两天从0到1做出3D射击游戏”、“DeepSeek+AI全家桶研发游戏”、“0基础靠嘴皮子做游戏”、“DeepSeek+Unity3分钟生成完整游戏代码”等由玩家主导的教程视频,却如同雨后春笋般冒出。

    而其中让我感触颇深的是,相关视频的评论区正构成一幅戏剧性拉满的“绝景”:

    一边是游戏爱好者兴奋地摩拳擦掌,另一边却是打工人苦涩的自我解嘲。在35岁笑话的无可奈何中,去年蔡浩宇曾提到的“99%的普通游戏从业者不妨转行”暴论,似乎正一步步映入现实。

    毫无疑问,不断进化的AIGC技术,已经为整个游戏行业蒙上一层患得患失的雾霾。但身处风云骤变的大盘环境之中,更加注重当下的基层游戏人,脑海中萦绕的无非还是那个老套的话题——

    在DeepSeek火爆全网后,“机器吃人”的故事,距离我们还有多远?

    真变天了?AI游戏成本骤降90%

    近期关注DeepSeep的朋友可能会发现,在业界大肆吹捧DeepSeep有多牛逼之余,大众的注意力还会似有似无地往另一个话题偏移——    过去两年里,AI迭代的速度到底有多快?

    一个案例可以说明这点。在B站斩获超120万播放的《我让DeepSeek做射击游戏!他杀疯了!我沉迷了…》视频中,这位博主曾提到一个有关AI迭代速度的有趣观察。

    他发现,半年前的大模型死活只愿意用Pygame这种简单的框架去推进游戏研发。但半年之后,AI已经将Unity列入首选项。而AI所能实现的效果,也从最初的4399简陋版小游戏,跨越至如今更为复杂的3D大作。

    视频最后他也强调,“我相信如果再给AI一点时间,以后我们每个人想玩什么游戏,你说句话就能生成出来了。”虽然如今的AI技术要想达到“三生万物”的境界还比较遥远,但这位博主的发言也揭示了AI目前最令人胆寒的特性——它的迭代速度已经来到一个夸张的地步。

    就拿眼下已经成为2月主线的DeepSeek来说。    要论这些年AI最为显著的技术进步,那么”使用成本”与”内容精度”,无疑是最具说服力的两大板块。

    首先在困扰无数厂商的成本方面。在DeepSeek之前,市面上传统大语言模型的使用成本其实并不便宜。

    以去年行业颇为出圈的《1001夜》为例。作为一款对话式AI驱动的产品,玩家每次通关流程不长的《1001夜》,开发者都要为此付出1元的AI使用成本。面对每位玩家动辄4到5次的通关次数,迫于成本压力,团队只能暂时给游戏设置一个每天可游玩的额度上限。

    (当时《1001夜》只是一个流程不长的Demo版本,成本压力就已经如此之大……)

    在大语言模型已然成为创作领域必备工具的当下,《1001夜》所面临的成本挑战,也同样是AI深度游戏化进程中亟待突破的瓶颈。然而这一局面在2023年5月迎来转机——随着DeepSeek等新一代推理模型的问世,这项技术为长期困扰内容创作者的开发成本难题提供了全新解法。

    简单来说,去年DeepSeek就通过独创的MLA架构和MoE稀疏结构,让训练显存占用降至传统模型的5%-13%,最终实现推理成本低至每百万Token仅1元人民币。放在当时,这个价格仅是Llama3的七分之一,GPT-4 Turbo的七十分之一。

    恰巧,Open AI创始人Altman前不久刚露过一次面。据Altman提到,GPT-4在2023年初的使用成本,相比GPT-4o在2024年中期,其每个token的价格已经下降约150倍。这无疑是一组相当夸张的数据。

    考虑到圈外人对这些弯弯绕绕不太敏感,一位熟悉AI行业的华南游戏人告诉我:    “最初AI还比不上人工时,要想生成10万字可用的剧情脚本,成本足够养活两个文案策划。但现在同量级任务交给DeepSeek,只够买杯奶茶。”

    从某种程度上看,眼下不断降低的AI使用成本,已经揭示了游戏行业未来即将由AI主导。毕竟仅仅只是过了2年时间,AI技术的成本曲线就能以十倍乃至百倍的斜率不断下探,甚至还能用“奶茶”为单位去丈量个别职能岗位。可想而知,在强调“降本增效”的游戏行业面前,    没有任何一家公司能够抵挡“性价比”本身所带来的极致诱惑。

    例如前不久3D AI乙游《如意情探》的Jaz就在游戏茶馆的采访中透露:“DeepSeek现在的调用成本大概是我们之前使用模型成本的1/20。按照以前的商业模式,只有中氪和高氪玩家才能获得的最佳体验,但现在低氪或零氪也有机会享受得到。”

    面对这种烈度的技术迁移,2025年的游戏开发者恐怕早已站在历史性的拐点之上——无论行业是向上还是向下,这堵名为AI的钢铁巨幕,将始终屹立在道路两旁。

    (图源:阿里巴巴AI大模型通义千问)

    游戏大厂全都坐不住了

    如果说越来越低的使用成本,只是帮助AI通往游戏行业腹地的入场券,那么上文提到的AI第二项跨越式进步——“内容精度”,就是DeepSeek撬动游戏行业的关键杠杆。

    在过去,无论是首先引发AI热潮的ChatGPT,还是后来广泛应用于游戏研发的AI美术工具,其痛点一直都绕不开“答非所问”、“直出不能用”,“需要大量时间精调”这几组关键词。

    归根结底,这些缺陷所折射出来的核心问题,实际上直指AI没有共情能力、AI无法理解创作这几项致命短板。    但时过境迁,在DeepSeek身上,我发现“AI破解创作”这件事情并非毫无可能。

    例如在一篇来自github的《LLM    (大型语言模型)创意故事写作基准》报告中,DeepSeek R1成功挤掉了霸榜长达7月的Claude,晋升LLM创意故事写作榜第一。

    在此次创意故事写作测试中,测试规则不仅对AI笔下的故事流畅度提出挑战,同时它还要求AI强制嵌入十项核心叙事要素    (包括角色设定、背景构建、动作动机等)以验证AI的创作性能。而DeepSeek正是凭借出色的创意和规则贴合度,在共计500次创意故事写作中斩获270次第一    (54%),一举领先Claude、Gemini等大语言模型。

    在DeepSeek登顶背后,DeepSeek也让游戏从业者看到AI在内容精度和创作趣味性上的巨大潜力。

    不过其中最让行业感到兴奋的,无疑是Deepseek在测试中所展现的惊人“共情能力”和“互动性”——这正是包括米哈游、腾讯、网易等头部大厂目前迫切需要的。

    (图源:B站UP主途淄)

    早在数年前,头部游戏大厂就早早围绕“AI互动能力”展开极其深度的布局以及研究。例如在2023年前后,一家名为MiniMax的初创公司,就引得米哈游、腾讯在内的游戏巨头争相投资。

    据了解,Minimax是由前商汤科技副总裁、通用智能技术负责人闫俊杰成立的人工智能公司,目前旗下的主力产品是提供AI聊天服务的社交软件Glow,估值已超12亿美元。

    在这款产品中,用户可以选择创造属于自己的“智能体”,通过设定基础的性格、背景故事等人物特征,培养一位擅长聊天对话的智能AI,进而让用户体验跟虚拟人物聊天的乐趣。

    而MiniMax引动一众大厂跟投的原因也不难理解——与DeepSeek类似,Glow所拥有的AI智能技术能够给玩家带来身临其境的互动体验。这项技术的关键之处在于,它不同于传统AI的预设性对答,而是凭借模型本身自带的“即兴创作”属性,去主动模糊AI与真人玩家的互动边界。

    单凭这一点,有着较高共情能力的AI技术,就无疑能让强调情绪价值和社交属性的二次元、乙女、MMO等品类如焕新生。    因此,布局“强互动型AI”早已成为行业共识。

    以米哈游为例,早在2023年4月,《崩坏:星穹铁道》的制作人大卫就曾透露内部在NPC行为和台词中尝试投入过AI技术,让一直以来较为模式化行动的NPC显得更加自然。

    而同一时间,在与《女神异闻录》制作人的对谈中大卫也曾提到,希望AIGC技术能够将“不会重复回答台词的NPC”变成可能,从而给玩家提供更多新奇的游戏体验。

    既然包括米哈游、腾讯在内的顶尖大厂都被强互动AI迷得神魂颠倒,那么中腰部的游戏企业自然更不用说。

    举几个近期的例子,去年游族就在少年系列游戏中实装了面向玩家的首款AI产品——AI玩伴小游酱。据了解,小游酱不仅能够为玩家提供客服答疑和游戏攻略,还能在陪玩与倾听中,提供丰富的情绪价值。

    而就在几天前,游族也正式宣布小游酱将接入满血版的DeepSeek,计划在情人节当天与旗下的二次元手游《绯红回响》一起,为玩家带来别样的惊喜。

    与之相似的案例,还有来自幻境游戏CEO张筱帆再创业的“自然选择”公司。

    在去年10月12日,与幻境游戏(旗下《奇点时代》)互为兄弟的自然选择官方,在B站发布了AI伴侣《EVE》的首支预告PV,并在两天内收获了超过110万播放量。

    当然,有关AI伴侣的实际应用仅是这项技术最直接的落地方式。我们不妨试想,当高共情、强互动的AI能够感知玩家动机,即兴创建故事脉络时,游戏世界便从预设的剧本牢笼中挣脱,进而成为能够动态生长的内容生命体。

    (网易《逆水寒手游》也同步接入包括DeepSeek在内的诸多国产大模型)

    这种由强互动性催生的“叙事涌现”,或将颠覆延续数十年的关卡设计逻辑,让一款强调情绪价值的游戏具备前所未有的长青价值。我想,这或许才是DeepSeek眼下最值得游戏行业参考学习的能力之一。

    对打工人而言,是福?是祸?

    聊完DeepSeek所代表的AI技术两大变迁,我们也是时候回归最初的疑问——在DeepSeek火爆全网后,“机器吃人”的故事,距离我们还有多远?

    相信不少从业者也会和我一样深有同感——    每当AIGC取得突破,“又要裁员了吗?”,这个幽灵般的质问总会在行业群聊中复活。但现实可能要比想象复杂得多。

    对比贯穿2023年到2024年的AIGC恐慌,本质是市场下行所引起的“降本增效”,恰好跟AIGC爆发的“技术奇点”整上了一轮火星撞地球。

    但当时间进入2025年,情况正在发生变化:版号常态化发放、小游戏赛道爆发、头部爆款频出……行业进入复苏期后,“优化”不再是唯一命题。    更别提,DeepSeek代表的“生成即服务”模式,正在为游戏行业的工作模式带来全新的变化。

    过去我们常说,AI技术的加入只是让“流水线工人”变成“创意决策者”。一位从外包原画师转型AI美术的从业者,就向我描述了他亲身经历的行业变迁:

    “过去我每天画12小时铠甲花纹,现在80%的重复劳动交给AI,剩下时间全用在和策划吵‘这套衣服该用凤翅兜鍪还是交脚幞头?’。”他告诉我,在AI介入他的生活之后,日常工作反而变成了真正的创作。

    这种趋势在文案领域可能同样显著。一位总是活跃在各大群聊的MMO文案表示,前段时间他试水了DeepSeek的内容生成功能,它可以将耗时数月的“全门派技能描述”压缩到一周完成,而自己得以转而投入核心主线剧情的情绪张力打磨。“AI就像给每个人配了实习生团队,关键看你怎么用。”

    杀死“牛马”的,从来不是工具。回看游戏史,每一次技术革命都会引发“机器吃人”的恐慌,但最终被淘汰的从来不是人类,而是固守旧范式的工作方式。

    当DeepSeek们扛起“脏活累活”,从业者反而有机会回归创意本源——就像印刷术没有消灭作家,Photoshop没有杀死画家,真正的创作者永远能找到与新工具和平共处的方式。

    或许某天,当AI能独立开发出《原神》级产品时,游戏圈需要新的生存法则。但至少在今天,Deepseek更像是行业集体跃升的弹簧板。

    我们现在需要做的,只是踩准它的力量,而不是恐惧它的阴影。

  • 1个顶5个!机器人开始抢饮品打工人的活儿了

    1个顶5个!机器人开始抢饮品打工人的活儿了

    还记得在春晚扭秧歌的机器人吗?它们在全国甚至全世界观众面前大出风头。

    但你可能不知道,机器人早已入侵饮品业,干起茶饮店员和咖啡师的活儿,甚至“一个机器人就能开一家店”。

    AI时代,机器人要取代饮品打工人了?

    做冰淇淋、做咖啡

    机器人正在抢饮品店员的活

    今年春晚捧红了“机器人”。    迈着小碎步,灵活地转手绢,跟着音乐扭秧歌,引发全民热议。

    最近,春晚“顶流”机器人火到饮品行业,    “机器人做冰淇淋/奶茶/咖啡”等视频正在网络走红。

    在一条“机器人做冰淇淋”的热门视频中,一个机器人手臂捏着蛋筒,准确地放在冰淇淋机下,有节奏地小幅度扭动几下,一个形状完美的冰淇淋便做好了,并“贴心”地递到顾客面前。

    春晚机器人和网友分享的“机器人做冰淇淋”

    该视频收获9000多点赞,网友表示“它扭得那几下,我一辈子都学不会”,甚至连海底捞国际版账号也留言发问“可以来捞面吗?”

    事实上,机器人“入侵”饮品行业已经有一段时间了 ,与上春晚的人形机器人不同,它们大多是“自动化饮品设备+机械臂”的形态,代替店员制作饮品:

    • 库迪旗下茶饮品牌茶猫开业时,一度将“机器人做奶茶”作为宣传卖点;
    • 去年,北京地铁19号线就出现许多机器人奶茶亭;
    • 哈工大食堂、西安、南昌等地的博物馆和科技馆,都有机器人做咖啡;
    • 深圳、合肥、北京等地的独立咖啡馆,引入机器人拉花、做手冲咖啡
    • ……

    机器人的应用热潮更是催生出许多主打“智能化”的饮品品牌,比如freshcube鲜饮站、HOOLOO呼噜咖啡、茉茶理等。

    HOOLOO呼噜咖啡

    当机器人开始做饮品,会对从业者带来什么影响?

    一个机器人  ,就能开一家店?

    饮品机器人有多智能?目前行业应用到什么程度了?

    我联系睿尔曼智能科技有限公司进行了解,这是一家专注于超轻量仿人机械臂研发生产的高新技术企业,在打造智能通用机器人方面经验丰富。

    其新餐饮事业部销售总监张悫告诉我,目前国内用于服务饮品行业的机器人技术较为成熟,产品形态主要有两种:

    一种是“开放式”,将机械臂设计与饮品店吧台融为一体;另一种“封闭式”,即“机器人饮品亭/站”,实现“一个机器人就能开一家店”。

    后者相对主流。以机器人咖啡站为例,通过集成方式联结一台全自动咖啡机、1或2条机械臂、落杯器、制冰机、粉料机、水箱、奶箱等模块,    占地三四平米左右,从点单到出餐全流程智能化。

    楷这样一家店,相当于代替一家传统饮品店四到五人的配置。

    一般来说,系统会提供十几种咖啡选项。顾客在点餐屏下单后,落杯器自动脱落一个纸杯,机械臂将其拿到全自动咖啡机下,按照设定程序萃取咖啡液,加牛奶等物料。

    做好之后,盖盖将咖啡放到指定位置,通过窗口“推送”到顾客面前,机器人还会发出“饮品已做好,请取餐”的语音提示。

    一杯出品时间在1分半以内,如果是美式或操作更简单的饮品,用时更少。

    机器的电子屏动态展示品牌宣传内容、咖啡豆产地信息以及当前制作状态等。不少顾客表示,    制作过程有一定视觉吸引力    ,等待期间不无聊。

    机器人还具备    智能统筹能力    ,遇到连续出杯的情况,会一边接牛奶,一边准备下一杯的咖啡液或冰块,提高效率。

    有的机器人    还有“打标签”功能    ,可为饮品贴标签,应对多杯和线上点单场景。

    咖啡店的一些常见问题,机器人也能“从容”应对。比如某杯制作时出现瑕疵,    机器人会自动倒进垃圾桶,重做一杯。

    如果设备故障导致机器人无法正常工作,工程师可以远程操作修复,顾客也可以拨打电话联系退款。

    机器人能做得越多,人要做得越少。

    “只需营业前添加物料、开机,营业结束后清洗、关机即可。”张悫说。

    经营者可在后台实时监控,比如做了多少杯、是否有异常、物料是否充足等,不在店也能“管好生意”。

    与常规门店相比,机器人咖啡亭对选址要求不高,保持通电即可正常运行。一次装满物料,可出100~150杯。

    由于“开店”相对灵活,一定程度上可以解决淡旺季的问题。

    “平时可以放在学校,假期挪到商场、景区等客流量高的地方。”    张悫说,尤其是景区、博物馆等地的顾客对效率要求不那么高,而且机器人做咖啡自带噱头和打卡属性,往往很受欢迎。

    我还了解到,许多城市已经为包括机器人饮品站在内的全自动设备现制现售饮品企业,办理了食品经营许可证。 “北京、深圳等一线城市普及度较高。”

    机器人会取代饮品店打工人吗?

    近年来,各大连锁门店相继用上了全自动泡茶机、奶茶机,明显感觉到,饮品行业的智能化进程加速。

    从操作上来说,机器人已经替代部分人力。甚至相比开一家传统奶茶店需要五名员工,一个机器人就能开一家店,那么未来饮品店员会被取代吗?

    多位业内人士持保留意见。

    店员正在使用佳泽泡茶机制茶

    首先,成本是最关键的因素。

    我了解到,机器人机械臂每条至少两三万,为了保证饮品的多样性和稳定性,往往需配套价格不菲的进口咖啡机,整体“开店”价格在15~35万之间。

    “造价高,长期的维修成本也要考虑,整体拉高了使用门槛”,成都Auncel Coffee称咖啡的主理人蔡元凯说。

    其次,现制饮品的丰富程度和更新频率,让机器人“有心无力”。

    “机器人生产商的技术创新往往集中于硬件和软件,产品研发属食品专业人员的工作范畴。”张悫说,“未来或催生一批专门负责机器人食品研发的工程师,但目前还未形成气候。”

    哪怕是机器人最擅长的流程化操作,实际落地过程中也面临诸多挑战。

    “流水线”咖啡

    “做一杯饮品看起来简单,其实流程非常繁杂,比如奶茶仅备料这件事机器人就操作不了。如果无法完全脱离人工,就没有太大的意义。”蔡元凯说。

    “ 由于没有后厨,出品多,补料会很麻烦;出品少,投入和回报不成正比。”某设备供应商说。

    最后,消费者是否愿意持续为机器人饮品买单,目前存疑。

    消费者可能会为了噱头尝鲜,但长期看来,“一杯机器做的饮品,如果价格不占优势,相比即饮咖啡或者动辄9块9的现制咖啡,仍缺乏一定竞争力。”蔡元凯说。

    他还提到,现制饮品的顾客喜好千人千面,至少目前的机器人无法精准满足客制化需求。

    最根本的是,消费者对于一杯饮品的需求,也绝不仅仅是饮品而已,与店员的互动、手作的价值感等都是不可或缺的消费体验。

    基于这些,包括张悫在内的多位业内外人士认为,机器人的最佳角色是“人机协作”提高效率 ,比如代替店员处理水果,协助咖啡师手冲、出杯,而非取代人力。

    尽管机器人在短期内很难代替打工人,但其所代表的“智能化”趋势依然值得关注。

    蔡元凯说:“行业对于智能化设备有持续需求,供人使用的高效、简单的新型高科技设备是长期发展方向。”

    结语

    人类面对新质生产力时,总会无法抑制地对自身存在产生忧虑。

    但就像DeepSeek所说,AI不会取代人类,就像望远镜不会取代天文学家。

    AI时代到来,给饮品人带来的真正危机是,如何在效率和服务之间做好平衡,让每一杯饮品在流水线的速度中,依然流淌着手作的温度。

  • Perplexity免费推出Deep Research:性能超过R1、o3-mini等,CEO:感谢DeepSeek

    Perplexity免费推出Deep Research:性能超过R1、o3-mini等,CEO:感谢DeepSeek

    AI搜索“老大哥”Perplexity,刚刚也推出了自家的Deep Research——

    随便给个话题,就能生成有深度的研究报告。

    先来划个重点:免费向所有人开放!

    具体来说,非订阅用户每天最多可查询5次,Pro用户每天可查询500次。

    然后啊,效果是酱紫的。

    例如给出一个问题:

    What should I know before the market opens?开市前我该知道些什么?

    在Deep Research加持下的Perplexity先是会查找海量的资料

    接下来是推理过程,用Perplexity的话来说就是专家级别的分析

    对原始材料进行充分评估之后,Perplexity就会将所有研究综合成一份清晰而全面的报告

    最后,你还可以把Perplexity写好的专业报告一键导出,格式包括PDF、Markdown和Perplexity Page:

    性能方面,Perplexity官方也给出了他们的测试结果。

    他们采用的基准,是最近考验AI推理能力大火的Humanity’s Last Exam(人类的最后考试),准确率达到了20.5%

    (注:“人类的最后考试”涵盖100多个科目、包含3000多个问题,涉及数学、科学、历史和文学等领域。)

    从成绩上来看,是优于Gemini Thinking、o3-mini、o1、DeepSeek-R1和其他许多主流模型。

    在另一项SimpleQA(一个包含数千个测试事实性的问题库)的测试中,Perplexity Deep Research的表现更是明显远超领先模型,达到了93.9%的准确率。

    更重要的一点是,Perplexity的Deep Research有够快——平均在3分钟内可以完成大多数研究任务。

    对此,Perplexity的CEO(Aravind Srinivas)公开致谢DeepSeek

    这是因为DeepSeek是开源的,又便宜又快。

    其实在10天前的一条推文中,Aravind Srinivas其实已经有所剧透:

    在推文下方的评论中,我们也看到了不少关于DeepSeek的身影:

    不得不说,DeepSeek的含金量还在上升

    实测Perplexity的Deep Research

    Perplexity新功能的操作方式也是极其简单。

    只需在搜索框下方的选项中pick一下Deep Research即可:

    从官方展示的案例来看,Deep Research擅长在金融、市场营销和技术等领域的深度研究,并且在健康、产品研究和旅行计划等领域作为个人顾问同样有用。

    例如在默认搜索和Deep Research下,同时问:

    What’s the best strategy for advertising at the Super Bowl? Analyze the ROI of each major advertiser at the 2025 Super Bowl. Which brands were the biggest winners and losers? What ad techniques were most and least effective? If I wanted to advertise at the 2026 Super Bowl, what should I do to maximize success?在超级碗(Super Bowl)投放广告的最佳策略是什么?分析2025年超级碗上每个主要广告商的投资回报率(ROI)。哪些品牌是最大的赢家和输家?哪些广告技巧最有效和最无效?如果我想在2026年超级碗上投放广告,我该怎么做才能最大限度地取得成功?

    可以看到,Deep Research给出的答案更像是一个专业的报告

    先是以类似论文“摘要”的形式,把问题的核心亮点全部提炼、总结出来,然后再撰写并展开包括Introduction在内的更多内容。

    同样的,让Deep Research完成撰写“黄仁勋传记”,从输出内容和格式来看,是更加清晰且一目了然:

    现在,也有很多网友开始在网上po出自己实测的效果。

    例如让Perplexity做下面这个任务:

    compile a research report on how has retail industry changed in the last 3 years.编写一份关于过去3年零售业变化的研究报告。

    然后这位网友还总结了一下Deep Research和普通AI搜索功能的区别:

    普通搜索为简单的查询提供快速的、表面的信息。它适用于查找基本事实或获得简短的摘要。另一方面,Deep Research是为需要深入分析的复杂、多层次的查询而设计的。

    正常的搜索通常会在几秒钟内产生结果。Deep Research是一个更耗时的过程,需要5到30分钟才能完成。

    但,好多“Deep Research”啊

    除了效果之外,对于Perplexity发布的Deep Research,网友们还有另外一个热议的焦点——名字

    例如有网友就直接提出了自己的困惑:

    Deep Research是你们能想到的唯一的名字了吗?

    其实这也不怪网友们提出这样的质疑。

    因为……现在有太多叫Deep Research的产品了……

    2024年12月,谷歌发布Deep Research

    2025年2月,OpenAI发布Deep Research

    2025年2月,Perplexity发布Deep Research

    AI的问题,我们就让AI来回答。

    Perplexity在回答中总结出了一个表格:

    CEO对此也给出了自己的答案,一言蔽之,就是“快好省”,不过他顺便还阴阳了一波OpenAI:

    我们每月不用200美元。

    最后,CEO还预告了一则消息,下周Perplexity还有一个很cool的东西要发布。

  • 他用AI做了一个维基百科「抖音」版,学知识比刷短视频还上瘾

    他用AI做了一个维基百科「抖音」版,学知识比刷短视频还上瘾

    如何克服狂刷短视频带来的时间黑洞?屏幕健康、数字极简都太好用。如今,出现了一个新应用,想用魔法打败魔法:不是爱刷下一条吗?让你刷个够。

    近日,某位外国网友,就用 AI 制作了一个应用,让你能用刷抖音的方式刷维基百科词条,所以这应用就叫:

    「WikiTok」

    随机出现的维基百科页面|图片来源:WikiTok

    不要以为维基百科枯燥,许多人都曾有「本来只是查个小知识点,结果一不小心深陷维基百科网,在无穷无尽的链接里跳转」的经历。甚至维基百科社群里就有个专门词,称这些用户是:

    Wikiholic(维基成瘾者)

    所以我兴致勃勃点进 WikiTok,感受了一场寓教于乐的「信息成瘾」。

    01 拒绝算法,套壳但不够 Tok

    WikiTok 就是个网页应用,页面极其简单,一个随机维基百科词条,下滑就刷出另一条词条,点击页面上的❤️收藏,点「阅读更多」会跳转到维基百科官方页面,条目之间完全随机,没有任何算法推荐机制。

    WikiTok 的目的就是让用户随机获得一些有趣的信息,增长见闻,在无聊时,用「短信息」去代替短视频打发时间。ArsTechnica 报道称这种方式「你永远无法预测下一个跳转会带你去哪里,这种未知感令人兴奋。」

    个人体验是,30 条里能刷出 1 条感兴趣的|图源:WikTok

    然而,在抱着这种期待体验后,我不仅对 WikTok 毫不成瘾,反而觉得有点浪费时间,还不如刷会儿抖音(不是)。问题就出在 0 算法,太随机。

    WikiTok 的开发者 Gemal 坚决抵制兴趣算法,他表示「很多人给我发消息,甚至在 GitHub 上评论,想让 WikiTok 加入算法。我不得不说,我们日常生活里已经被无情且不透明的算法所统治,为什么不能在世界上有一个小角落,没有任何算法?」

    开发者的想法很理想,但体验很糟糕。

    我不得不下滑数十次,才能看到一个有点点感兴趣的词条,随机推送的机制,就相当于我在总计超过 6400 万个维基百科条目里开盲盒,我原本想在知识的海洋里遨游,但实际上是在大海捞针

    刷了半个小时就刷到四条略微感兴趣的条目|图源:WikiTok

    想象一下加入了算法推荐的 WikiTok 多么有趣。

    比如我最近沉迷中世纪背景的游戏《天国拯救 2》,对中欧中世纪的历史风俗非常感兴趣,游戏里也提供了大量维基词条去科普。所以当我在 WikiTok 上刷到「锁子甲」、「城堡」、「波西米亚战争」等词条时,简单阅读后果断点了「❤️」。

    而后 WikiTok 会给我推荐越来越多的中世纪相关词条,我不需要准备三个小时读完「中世纪」这一维基百科词条。而是在各种碎片时间里打开 WikiTok,就能快速了解一个我感兴趣领域的小知识。

    然而实际上,我在 WikiTok 上刷了接近五十个词条,才刷到一条「锁子甲」,而后类似词条再也没出现过,点了 ❤️也只是把「锁子甲」收藏后待日后翻阅。

    目前 WikiTok 就只是一个浏览界面,它忽略了一个问题:TikTok 的核心就是算法,它靠算法在相关内容之间,一条条做横向推荐

    而传统的维基百科不需要算法,因为用户可以持续点击相关链接。一条完整的维基百科条目就已经集成了足够的「算法推荐」。就像我点进「中世纪」这一维基百科词条里,不仅单条目有两万多字,还有成百上千个可跳转的新词条、上百篇引用论文,光推荐继续研读的相关网站就有几十个。

    TikTok 靠单条关联,维基百科是全部摊开,WikiTok 是在全部摊开下不做关联。

    维基百科「中世纪」条目下有无数链接|图片来源:维基百科

    说白了,目前这种形式并没有体现 WikiTok 里的「Tok」,何况维基百科本身就有一个链接叫做「随机维基」,每次点进去会随机推送一条词条,也无任何算法和数据关联。

    WikiTok 的形式,并没有在随机维基上做任何突破。但也不能过于苛求 WikiTok,毕竟:

    它是一个靠 AI,一个半小时就做出来的网页应用

    02 靠 AI 能做出「抖音版维基百科」吗

    WikiTok 源于开发者 Tyler Angert 发了一条推文「一个疯狂的点子:整个维基百科都在一个单页,可滚动的页面上。」在网友评论「甚至更好的是,一个可以根据你的兴趣,无限下滑的维基百科页面。」而后 Angert 将这个想法命名为「WikiTok」。

    此后该推文被转发上百次,在几小时后,让开发者 Gemal 看到了。

    维基百科「抖音版」最初的 idea 来源|图片来源:X

    Gemal 觉得可以用 AI 编程,马上做出一个「最小化可行产品」(MVP)。在 Claude、Cursor 等 AI 模型下,从凌晨十二点半刷到 WikiTok 的想法,到凌晨两点,Gemal 靠 AI 把 WikiTok 做出来了。

    不到 24 小时,靠 AI 编程让想法成真| 图源:X

    第二天,Gemal 推出 WikiTok 的推文转发破千,产品登上 Hacker News 当日新闻榜首。

    Gemal 表示,WikiTok 只有几百行代码,绝大部分都是 Claude 写的,他已经把项目开源发到了 GitHub 上。但至今,他仍然坚持让 WikiTok 反算法。

    然而,算法并不是 WikiTok「无聊」的唯一原因,还有形式的问题。

    WikiTok 条目的呈现方式是最简单的文字摘要,配上一张条目里被放大的图片,观感十分简陋。

    这清晰度仿佛穿越回 ADSL 时代|图源:WikiTok

    既然整个 WikiTok 项目能在 AI 帮助下一个半小时就做出框架,那 AI 能否让它形式上更丰富呢?

    比如跨语言支持,虽然 WikiTok 支持 14 种语言,但当你选择了使用语言后,它是直接把范围锁定到了该语言的维基库里。但维基百科第一语言的英文,有近 700 万条目,中文仅排第 12,只有不到 150 万条目。

    如果 WikiTok 可以引入 AI 的翻译优势,就可能打通维基百科条目之间的语言壁垒,间接扩充了用户可访问到的条目数量。

    在内容呈现上,AI 也能给 WikiTok 带来更丰富的形式,比如把 WikiTok 接入 Sora、Runway、可灵这类 AI 生成视频平台,提取维基百科文字摘要,生成 15 秒短视频,或是动态图文,甚至辅以 AI 解说

    围绕知识和信息,AI 还能做到动态可视化,或许还能生成交互式 3D 模型、时间轴动画、信息图辅以理解。

    再加上推荐算法的加持,这是不是更接近想象中的「WikiTok」,一不小心就成了 Wikiholic(维基成瘾者)。何况算法推荐和 AI 条目短视频可以作为可选项,让原教旨维基者保留惊喜,给更大众的用户沉浸其中的机会。

    维基百科的信息准确度、知识密度和广度都是一座互联网宝库,同样是打发碎片时间,从「刷了三个小时 TikTok,感觉虚度了人生。」到「刷了三小时 WikiTok,浅浅了解了一个新领域!」获取的信息多了,成瘾负罪感少了,何乐而不为呢?

    别说,我还真挺想在 AI 时代,看到一个成熟的 WikiTok 出现,在搜索引擎、大语言模型、算法推送和传统百科之间,找到一个独特又能触达大众的路径。

  • 20+ 车企接入 DeepSeek,为啥没有「蔚小理华米特」?

    20+ 车企接入 DeepSeek,为啥没有「蔚小理华米特」?

    DeepSeek 成为了蛇年开年最火的事物,连家里的爸妈甚至爷爷奶奶,都在过年的饭桌上叫我给他们讲讲 AI 是怎么回事。

    由于同时具备强大的推理能力及开源模型两个特质,导致几乎所有科技公司都在研究怎样和 DeepSeek「深度融合」一下。华为、腾讯、百度、字节等互联网巨头,尽管都有各自自研的模型,但不妨碍纷纷第一时间在自己的云服务器里接入 DeepSeek,一群因为「服务器繁忙,请稍后再试」的用户得以曲线救国,云服务商得以也接住了泼天流量。

    芯片、金融、电信等行业的头部玩家也因为相似的逻辑接入了模型。毕竟大家都希望体验一下 R1 模型的最强大脑。不管在业务层面起到了多大的帮助,大部分公司的股价至少都涨了。

    不过有一个行业稍显例外,那就是汽车行业的主机厂们

    截止 2 月 13 日,已经有包括比亚迪、吉利、东风、长城、极氪、智己等超过 20 家车企宣布完成和 DeepSeek 的深度融合。不过,新势力里的蔚小理华米,以及特斯拉均没有宣布和 DeepSeek 的相关融合信息。

    大模型上车,现阶段最大的问题,是还没有展示出足够好的场景。相反,在一些主机厂的微博评论区里,车主更在意一些已有的功能能否及时通过 OTA 得到优化

    可以看出,技术并不是用户最在意的点,用户真正在意的是产品体验。如何用更好的模型获得更智能化的体验,才是用户真正在意的。相反,如果现阶段不能达到更智能的体验,那么用户更在意的是这车好不好开,内饰舒不舒服,还有便宜不便宜。

    用户想得到的是一辆「更智能的车」,但并不代表他们要在车上用车机写出一篇高考满分作文。

    01 车企排队接入 DeepSeek?「如来」

    在目前各主机厂释出的有限信息里,DeepSeek 上车后,智能座舱中的人机交互,有望成为第一个深度融合的典型场景。

    智己、吉利发布的两条视频里,展示了 3 个和智能座舱有关的使用场景,分别是:

    场景 1:激活座舱模型,调用 DeepSeek 进行文本生成,如案例演示中「生成一篇文章庆祝亚冬会金牌诞生」。

    智能座舱通过 DeepSeek 进行文本生成 | 图片来源:视频截图

    在这个场景中,座舱通过接入 DeepSeek 的 API,把 DeepSeek「好文笔」搬上了车。和绝大多数人习惯在手机、电脑端操作略有不同的点在于添加了语音作为新的交互方式。

    场景 2:提问在某段里程中遇到的一个湖叫什么名字。DeepSeek 通过调用车辆行程记录、地图等信息,推理给出了相应答案。

    通过 DeepSeek 推理回答车主问题 | 图片来源:视频截图

    在这个场景中,通过接入 DeepSeek,把车机内储存的端侧信息(行程记录、地图)作为推理语料提供给了模型,由此可以得到更个人向的推理问答。

    场景 3:直接对车机表达「我累了,一会叫我」的模糊指令,车机识别后分别调整了车窗、座椅、空调、氛围灯、闹钟的硬件或功能,生成了一个休闲场景。

    通过 DeepSeek 实现模糊语义识别及相关车控操作 | 图片来源:视频截图

    和手机里的 DeepSeek 应用不同,接入车机后,最显著的不同在于模型可以调用车端信息作为推理语料,为车主提供更个性化的服务。

    不过,这些推理要消耗多少运算资源、需要怎样的硬件支撑、以及是否需要联网服务,目前主机厂还没有释出太明确的信息。

    02 更聪明的智能语音,未必是真 PMF

    DeepSeek 有希望让车内的智能语音变得更聪明,更能理解用户的各种模糊指令。不过,这真的此刻主机厂和用户最紧迫的真实需求吗?

    从企业端来说,目前积极接入 DeepSeek 主要分为三类,分别是:芯片、云服务和终端硬件厂商(手机+智能汽车)。

    对于芯片厂商而言,由于 DeepSeek 是基于英伟达芯片进行推理的,而不同芯片间架构不同,所以其他厂商必须进行软件和算法层面的适配,才能兼容 DeepSeek 的模型训练和推理。换句话说,芯片商参与到这轮 DeepSeek 热里,是出于用户最真实且紧迫的需求,这是保住和扩大市场必须要做的一个关键动作。

    云服务商的积极接入,也有类似的逻辑。对于 C 端用户而言,在频繁遭遇「服务器繁忙,请稍后再试」的提示时,云服务商的出现提供了新的入口,接住了这次泼天的流量,让人多普通消费者认识了自己;对于 B 端用户如开发者和企业用户而言,在云上部署 DeepSeek,可以降低企业使用模型的门槛,提供更好的开发体验。

    因此,在这轮 DeepSeek 热潮里,包括华为云、腾讯云、阿里云、百度云、火山引擎等主力玩家,都先后对 DeepSeek 进行了云端部署——哪怕这些云厂商背后的科技公司都有自己独立研发的模型,但用户要用 DeepSeek,他们就要接入这个开源模型。

    「不堪重负」的 DeepSeek 服务器 | 来源:网络截图

    但到了硬件领域,对终端厂商和用户来说,此刻在产品完成对端侧 DeepSeek 的部署,既有难度,也不是优先级最高的需求。

    首先,目前的端侧计算资源并不支持「满血版」DeepSeek 的本地化部署。不同于云端服务器,如果要在个人设备上部署 671B 参数模型的 R1 模型,需要将近 1300G 的显存,远超 PC、手机、汽车的端侧计算资源。如果退而求其次,用 7B 或 10B 的蒸馏模型,其推理能力又和满血版有显著差别。

    所以,如果把 DeepSeek 模型接入车机,但实质只是多了一个语音入口,对用户来说,为什么非要在车上使用 DeepSeek 而不是打开手机或电脑上的应用呢?

    对于智能汽车用户而言,相比车机是否可以解答一道数学题或者写出一篇好作文,显然更在意它是否能发挥好「助理」的角色。这才是真正的需求。例如,手机微信里接收到的地图甚至大众点评的餐厅位置信息,是否可以一键流转到车机导航,并显示在 HUD 导航里。这是减少车机端操作,提升体验的一个具体场景。

    而要执行这类任务,需要的核心能力并不在于 DeepSeek 所擅长的「推理」,而是打通不同设备间接口的工程能力。目前,包括鸿蒙智行、小米、蔚来等拥有多端设备的企业实际已经具备了类似功能。这大概也是为什么华为云宣布和 DeepSeek 融合,但鸿蒙智行旗下车企却暂时没有相关发声的原因。

    其实,无论是手机还是汽车用户,大家真正期待的是将 AI 的「大脑」和硬件的「身体」结合起来后的智能化体验,也就是 OpenAI 定义的人工智能阶段里,从 L2(推理者)到 L3(Agent)的提升。但在产品层面,这并不单单取决于某个模型的能力,还和硬件层面的产品定义、接口、功能开发都息息相关。

    03 除了座舱,DeepSeek 还能为车企做点啥?

    在产品层面之外,在近年角逐越来越激烈的智能驾驶层面,DeepSeek 能为车圈提供什么帮助吗?

    要回答这个问题,首先我们得知道目前智能驾驶开发层面最大的问题是什么?

    一句话概括,就是:目前智驾系统还搞不定复杂的城区路况,接管次数频繁,使用体验不佳。

    接管次数多的原因除了一些难以预测的安全情况,如行人横穿、车辆加塞、电瓶车逆行等,还包括系统对一些特殊交通规则的识别和判断,比较典型的场景包括:一线城市的潮汐车道、公交车道;不同城市左转、掉头车道设计思路不同(有些在最左侧,有些在最右侧);以及临时施工或管制时的各种电子屏幕信息。

    这些烧脑的交通变化,别说是智驾系统了,就算是人类司机,当第一次遇上这些情况,也得打起 100% 的专注度才不会走错道。

    理想汽车的 CEO 李想去年年中有个著名的演讲,把人类驾驶者的大脑分为系统 1 和系统 2,系统 1 负责以低能耗的方式处理直觉类工作,而系统 2 则负责在复杂情况中进行推理,处理各种 Corner Case。

    而以推理见长的语言模型 DeepSeek-R1,从原理来说是有望提升「系统 2」的能力的。例如,更精准识别和理解不同交通标识(公交车道、潮汐车道),从而做出更好的驾驶判断。并且,DeepSeek-R1 提高了模型的训练效率和推理能力,也有望优化车端的推理速度,在算力有限的端侧也达到更好的智驾能力。

    智驾开发的另一个难度,体现在数据采集侧。不同于语言大模型可以直接利用海量的数字文本资源进行训练,智驾往往需要先在真实物理世界中采集数据,才能进行训练。

    由于引入了 MoE(混合专家架构)、MLA(多头潜在注意力机制)等技术,DeepSeek 本身降低了对数据标注的需求,因此可以帮助智驾企业进行数据挖掘和生成,降低数采和标注的成本。

    而在另一个层面,DeepSeek 的多模态模型(非 R1)可以模拟生成一些难以采集的场景数据,如极端路线、罕见交通标识等。而通过仿真数据进行智能驾驶的训练或验证,也是包括华为、蔚来等多家车企进行智驾模型训练的重要工作之一。

    以上这些工作,虽然不像云服务商接入 DeepSeek,可以直接解决用户访问主站时转圈圈的燃眉之急,但对车企而言同样重要。毕竟比亚迪已经喊出了「全民智驾」的口号,智驾毫无疑问将成为 2025 年竞争的重点。在同价位段车型里提供更好的智能化功能,将成为消费者选择决策中新的重要考量因素。

    当然,正如前文所言,一辆智能汽车各项功能的发挥,不仅只仰仗于某些单一技术的突破,车端其他硬件层面的优化(如更大算力的智驾芯片)以及模型侧其他能力的优化,将共同决定我们何时达到 L3 级别的智驾智舱能力。

    DeepSeek 在智能化浪潮里,给了所有创新者一个小成本高性能的样本,但不是一套可以照抄的答案,未来的汽车产品应该走向何方,还需要真正懂产品懂 AI 的人来「深度求索」。

  • 测试过微信官方支持的 DeepSeek R1 后,我搞明白腾讯要怎么押注 AI 应用了

    测试过微信官方支持的 DeepSeek R1 后,我搞明白腾讯要怎么押注 AI 应用了

    微信自 2011 年推出以来,一直以创始人张小龙的「克制」而闻名,不会为了「风口」而改变微信本身。甚至今天你刷朋友圈的体验,都与十年前朋友圈刚刚诞生时没有本质的区别。

    「张小龙觉得对这个功能自己最满意的地方之一,就是一经发布几乎没有改进余地而稳定运行了十年。」极客公园创始人张鹏在与张小龙对话后,这样总结微信的产品逻辑。这一点在微信成为真正意义上的「国民社交 App」之后,也没有发生改变。

    而在 DeepSeek R1 发布后,这些标签就像面具一样,被微信团队自己猛然撕下:北京时间 2 月 15 日晚间,陆续有用户发现,在自己的微信搜索中,出现了整合了 DeepSeek R1 的「AI 搜索」功能——此时距离在 1 月 20 日 DeepSeek 正式发布并开源 R1,还不到一个月时间。

    在微信搜索界面中,就能看到 AI 搜索按钮 | 图片来源:极客公园

    对于收到本次更新的用户,在微信主页顶部的搜索栏中点进去,就能在搜索记录下方看到一个「AI 搜索」的按钮,点击进去,其中就能看到这个功能提供的两个回答模型能力选项。第一个名为「快速回答」,第二个就是由开源的 DeepSeek R1 驱动的「深度思考」模式。

    共有两个模型选项,其中第二个才是由 DeepSeek R1 驱动的版本 | 图片来源:极客公园

    值得一提的是,虽然本次为只有部分用户收到的灰度更新,但从推送范围以及收到的更新的用户分布广度来看,本次更新的推送速度相比近期微信的 Callkit 等同样经历过灰度的功能更新,推广速度要快许多。从最早的爆料出现,到首批收到推送的用户大规模出现,仅用了不到六个小时。彻底颠覆了过去数年微信功能更新给人「保守」的印象。

    本次更新并不绑定软件本身的版本号,因此无需你从 App Store 或其他应用商店更新微信版本,笔者自己则是在手动清除掉手机的微信后台、重新启动后,就发现了这个入口。

    换言之,如果你手机上的微信当前还没有收到这个更新,也不用太着急——你微信中的 DeepSeek R1 入口其实已经隐藏在代码之中,测试资格或许马上就到。

    从功能附带的开源与鸣谢声明能看出,微信中内置的 DeepSeek R1 基于开源版本构建而来,但其中并未明确提及其使用的模型体积,是否是 671B 的「满血」R1 版本。

    微信「AI 搜索」功能的开源声明页 | 图片来源:极客公园

    众所周知,包括公众号/视频号在内的微信内容生态长期以来一直是独立于各大搜索引擎的一个「孤岛」,这个情况在 ChatGPT4o 等联网语言模式问世之后也没有得到相关的改善,因此测试上微信内置的 R1,我最兴奋的就是它是不是终于可以,在微信内容平台的海洋中,使用大模型的能力自由翱翔了?

    很遗憾,在目前的实际的测试中,答案是否定的。

    例如,我尝试了将公众号的微信推文链接喂给它,它也无法检索微信平台中的相关信息,只能根据链接中相关的字段在微信公众平台之外的互联网上搜索相关的内容,甚至有些时候它都无法识别到这是一篇来自微信公众号文章的链接。

    当前版本的 AI 搜索,还不能识别微信内容的链接 | 图片来源:极客公园

    在其他涉及到微信公众号相关的问题中,虽然 AI 搜索能够依据文章搜索以及 R1 的推理能力给出相对准确的回复,但其内容的来源更接近微信公众号在其他平台分发得出的结果,而非对微信内容平台自身结果的引用。

    针对微信平台内容的回答,更多是基于互联网现有内容整合而来 | 图片来源:极客公园

    目前来看,微信内置的 R1 并未针对微信平台内的内容进行检索增强生成(RAG),对输出结果进行优化。

    这既是当前阶段内测版本微信 AI 搜索的明显短板,也是短期内微信整合 AI 功能显而易见的重要更新方向之一。

    总体体验来讲,目前的微信 AI 搜索体验也非常轻量级。不仅不支持连续对话,也不支持上传各种文件内容辅助提问与搜索,甚至在你退出聊天界面后,当前的对话记忆内容也会被直接销毁,不支持保留。

    作为「国民应用」的微信,在 DeepSeek R1 正式发布并开源的不到一个月时间内,就在应用内整合了入口,这无疑是一件让人振奋的事。

    之所以让人振奋,是因为微信在做的事,只有少数厂商能做到。

    在对话生成式模型拥有手机端 App 之后,抢占智能手机桌面的入口,已经是包括 ChatGPT、Perplexity 等很多 AI 应用在做的事情,通过设置其成为默认语音助理的方式,将「入口控制权」尽可能从手机品牌那里抢夺。

    但对于微信这样相对封闭的平台来讲,能依托微信现有的庞大中文内容生态,做并且能做好这件事的,目前看来似乎只有微信团队自己。

    从「极端保守」到如今成为了率先加入 DeepSeek 的聊天应用。这样的明显的改变,只有一种合理解释:微信团队认识到了 DeepSeek R1 所代表的推理模型在微信平台中应用的巨大潜力,并决定快速下场,来成为这场改变浪潮的主导者,确保微信的使用体验不落于其他竞争者。

    这已经不是微信团队第一次在 AI 大模型领域出手,微信输入法曾在去年六月加入「一键 AI 问答」功能,用于让用户在微信输入法内实现语言大模型的内容回答。

    但彼时这个功能是基于腾讯自家的混元 AI 大模型实现,并不能充当文本生成工具。

    微信输入法中现有的「问 AI」功能 | 图片来源:极客公园

    从体验上来讲,微信输入法适合各种聊天中的「灵光一现」问题,微信本体的 AI 搜索,有很大可能将会聚焦在微信现有内容生态内,借助用户聊天内容以及微信公众号等平台,深度挖掘其中的应用场景。

    这样的「分布式」的 AI 能力体验,倒是与 Apple Intelligence 的产品思路有异曲同工之妙:在去年苹果发布的 Apple Intelligence 能力中,苹果并没有颠覆性的拿出另一个能力震惊世界的模型,而是选择借助 ChatGPT 这样现有的模型,将模型能力嵌入在包括笔记、照片以及输入法等手机生态的各个角落。

    苹果 Apple Intelligence「散落」在各个应用中的 AI 能力 | 图片来源:极客公园

    表面上,Apple Intelligence 似乎不如同期 Google、OPPO 这样同样在发力手机 AI 应用的厂商来的更加聪慧,但苹果实际上在做的,却让 AI 尽可能「悄无声息」地加入用户生活,并借助能力给用户更多的使用场景带来改变。

    从这一点上来看,虽然没有手机操作系统的腾讯,在移动互联网时代错失了最重要的入口之一,但微信作为如今重要的沟通平台,却成为了「让 AI 真正普及」过程中不可或缺的重要一环。

    在中国,上至百岁老人、下至刚刚学会用智能手机的孩童,都已经对微信有了最基础的使用概念,这些功能中,同样也是最适合 AI 能力去进一步做「润滑」、降低 AI 学习成本的关键所在。

    对于已经走过爆发点的生成式 AI 来讲,如今通过探索 AI 应用的普及,从而让 AI 能力在更多用户的长期使用中「产生质变」,才是微信 AI 真正值得我们期待的未来。

    甚至当下我们就已经可以下定论:微信中的 AI 能力,或许不会是最让人兴奋的那个,但它却有最大的机会真正去「改变世界」。