分类: AI大模型

栏目聚焦于人工智能领域的大模型技术,涵盖前沿动态、技术解析、应用案例以及行业趋势,为读者提供全面深入的资讯与洞察,助力把握AI大模型发展的脉搏。

  • DeepSeek爆火一个月,豆包、Kimi们怎么样了?

    DeepSeek爆火一个月,豆包、Kimi们怎么样了?

    1月20日,前后相隔仅几小时的时间里,深度求索与月之暗面先后发布了技术路径相似的DeepSeek-R1及Kimi K1.5多模态思考模型。

    后来,OpenAI在论文里称,这两家中国AI公司同时独立发现了o1(OpenAI o1推理模型)的秘密。

    但从结果来看,二者南辕北辙。前者名声大噪,改写全球AI格局,后者却并没有太大声量。

    在此之前,不会有人想到一家由对冲基金公司孵化、没有进行任何广告投放的AI模型,能够在短短一个月的时间里,打破OpenAI神话,甚至让网友高呼:DeepSeek做空了美国!

    DeepSeek到底有多火?从数据可以窥探一二:

    微信指数显示,近30天,豆包、Kimi的微信指数平均值分别为3千万和2100万左右,而DeepSeek微信指数平均值达到了5.9亿,峰值更是逼近10亿,是豆包、Kimi的数十倍。

    至此,整个互联网由All in AI,开始向All in DeepSeek转向。

    那么,DeepSeek-R1诞生一个月,爆火至今,豆包、Kimi、文小言们如今怎么样了?

    一、拥抱派:腾讯元宝、文小言们

    DeepSeek的横空出世,让BAT等互联网大厂和月之暗面等AI六小龙们进一步分化,或拥抱DeepSeek、抢占优势与热潮开疆拓土,或自力更生、探究AGI业态的更多可能。

    这其中,拥抱DeepSeek的不在少数,腾讯更是其中代表。

    2月16日,腾讯方面确认微信已上线“AI搜索”功能,并正式灰度测试DeepSeek-R1模型,提供“深度思考”服务。

    而作为腾讯大模型终端应用,腾讯元宝在2月13日便悄悄更新,宣布接入DeepSeek;2月17日,腾讯自研深度思考大模型HunyuanT1也正式上线腾讯元宝APP,进行灰度测试。

    同时,腾讯元宝也在几乎同一时间加大了投放力度,似乎是为接入了DeepSeek与HunyuanT1的新版本助阵。

    ADX行业版数据显示,2月1日至14日,腾讯元宝投放力度始终保持在相对低位,日均投放素材量约2000组,2月15日起,投放力度迅速攀升,日投放素材量峰值超3400组,至2月18日,腾讯元宝日投放素材量再达新高6570组。

    尽管在自家AI助手中接入DeepSeek模型,会让人多少觉得有些“为他人做嫁衣”之感,但腾讯似乎并不在乎,反而从当下情况来看,包括元宝、微信、腾讯文档、QQ浏览器、QQ音乐、腾讯地图等应用在内,腾讯旗下至少十数款产品已经宣布接入DeepSeek大模型。

    DataEye研究院看来,腾讯的做法更像是有着自己的战略考量:利用外部模型及自身庞大信息量、用户量,打造AI时代的杀手级应用,并同时帮助腾讯内部大模型引流和迭代。

    除腾讯外,百度同样选择了拥抱DeepSeek。

    2月16日晚,百度搜索称将全面接入DeepSeek和文心大模型最新的深度搜索功能。但在百度旗下AI助手“文小言”APP上,只是通过DeepSeek-R1模型优化了“拍照解题功能”,还不能算正式接入DeepSeek-R1模型。

    不过即便如此,腾讯、百度的倾向性也十分明显。

    此外,AI六小龙中,阶跃星辰旗下“跃问”APP接入了DeepSeek-R1模型,MiniMax 01海外版也上线了DeepSeek-R1深度思考模式。

    随着腾讯、百度各自最核心产品微信、百度搜索、以及多款AI助手相继接入DeepSeek模型,这对搜索市场所带来的影响,或许也将在未来再次改变多数人的搜索方式与体验。

    二、自主派:字节豆包、Kimi们

    在自家AI助手应用中,接入竞争对手的AI模型,除腾讯等个别情况外,多数公司并没有这样的魄力。

    相反,同为大厂的字节跳动,甚至表现与腾讯大相径庭。

    如果说腾讯对待DeepSeek的态度是积极拥抱,那么字节跳动则可以称作极度保守。暂且不说“豆包”这一字节旗下最核心的AI助手应用,即便是其他边缘产品也几乎都没有接入DeepSeek。

    据统计,截至目前,字节系产品中仅有火山引擎及其旗下产品+飞书官宣上线DeepSeek系列模型。而火山引擎类云平台上架不同大模型本就是正常情况,因此严格来讲,字节系仅有飞书一款C端产品上线了DeepSeek模型,对比腾讯十几款产品拥抱DeepSeek的情况,二者态度天差地别。

    不过,这种态度似乎也代表着字节对自家豆包大模型的自信:字节或许相信,豆包大模型能够在不久的将来追赶上DeepSeek的水平。

    在DeepSeek-R1诞生前,豆包APP长期占据着国内AI助手类应用榜首位置。

    数据显示,2025年1月,豆包APP月活高达7861万,在国内AI类应用中位列第一,全球市场位列第二,仅次于ChatGPT。

    不过随着DeepSeek爆火,这样的格局正在被改写。

    点点数据显示,近30天豆包、DeepSeek及ChatGPT三款产品日活走势可总结为“一升两降”。其中,DeepSeek日活始终处于上升态势,尤其是1月26日、27日两天,日活迅速由几十万级别攀升至数百万,进入2月份之后,进入缓步上升态势。

    豆包与ChatGPT则在2月初期及之前保持在稳定态势,自2月初期开始,日活先后断崖式下跌,并保持至现在。

    可见,DeepSeek如今已经成为全球市场AI应用类产品日活TOP 1,而豆包日活大幅度下滑后,与下位者差距开始缩小。

    除豆包外,DeepSeek爆火后最被关注的另一款产品,当属月之暗面旗下的Kimi智能助手。

    单论技术能力而言,kimi或许并不算差。

    文章开头曾提到,Kimi K1.5模型与DeepSeek-R1同日发布,技术路径相似,被OpenAI称赞。

    2月18日,DeepSeek和月之暗面再次撞车,二者几乎同时发布了各自最新的论文,主题均是挑战Transformer架构最核心的注意力机制。

    因此,Kimi也并未接入DeepSeek模型,不过,在外界风评上,Kimi却总受到诟病。

    过去,Kimi凭借激进的投放策略,被外界认为过度依赖营销而非技术突破,曾单月付费投流金额超2亿元还一度登上微博热搜。

    但大肆投放之下,Kimi在用户量等方面仍旧赶不上豆包,如今DeepSeek爆火,更引发其对“重投放”策略的反思。

    这也导致Kimi如今最重要的一项改变:坚持基础模型SOTA、大幅缩减投放。

    消息称,DeepSeek爆火后,月之暗面内部复盘认为要坚持基础模型SOTA(State-of-the-art,当前最佳),接下来可能会重新训练基础模型,并抓紧应用层机会,内部选中的一个方向是一款面向深度研究领域的智能体产品DeepResearch。

    与此同时,媒体称月之暗面近期决定大幅收缩产品投放预算,包括暂停多个安卓渠道的投放,以及第三方广告平台的合作。

    事实也确实如此:

    ADX行业版数据显示,自2月14日开始,Kimi智能助手投放力度便大幅下滑,2月15日投放力度几乎触底,至今维持在单日素材量1500组左右,较此前日均2万组投放素材量,大幅下滑了92.5%。

    三、DeepSeek时代,AI厂商的集体反思

    DeepSeek就像一条鲶鱼,一个月的时间内彻底搅浑了全球AI市场,引发各大AI厂商集体反思。

    字节跳动CEO梁汝波反思认为,DeepSeek-R1的长链思考模式并非业界首创。去年9月,OpenAI发布长链思考模型成为行业热点,字节虽意识到技术的重大变化,但跟进速度不足,若当时及时争先,或许有机会更早实现。

    而腾讯全体转向DeepSeek的表现,也一举扭转了外界对其在AI大模型领域战略模糊、动作迟缓的态度。

    对于腾讯而言,无论是自家大模型还是DeepSeek,只要技术能力达到了某个跨越式阶段,便能通过整合快速验证AI技术的实用性,并在现有的核心场景中建立AI时代的用户心智,微信接入DeepSeek刷屏全网便是最好的证明。

    与此同时,曾经的AI六小龙也站在新的十字路口。

    阶跃星辰、MiniMax选择拥抱,纷纷接入DeepSeek模型;百川智能继续加注AI医疗赛道;零一万物不再追求训练超级大模型,转而探索商用场景大模型能力的产业化落地;月之暗面、智谱AI则继续发力大模型与Agent智能体应用。

    过去的大模型叙事被打散,唯DAU论被推翻,所有人都被DeepSeek逼着往前再踏出一步。

    对于腾讯元宝们而言,接入DeepSeek并不等价于All in DeepSeek;对于豆包、Kimi们而言,不接入DeepSeek也不代表完全拒绝。

    有人一边在产品端提供最佳服务状态,一边为自研大模型争取迭代时间;有人不甘落后,调整策略聚焦技术攻坚。

    这大概是DeepSeek这条鲶鱼带给中国AI厂商们最好的反思。

  • 一文讲透关于DeepSeek的7个核心问题

    一文讲透关于DeepSeek的7个核心问题

    2月10日至11日,巴黎举办了人工智能(AI)行动峰会。《纽约时报》称,与过去一个月的所有AI活动一样,巴黎AI峰会上充满了关于中国人工智能企业深度求索(DeepSeek)的讨论,这家中国公司以其强大的推理模型震惊了世界。据《财经》杂志统计,百余家中国公司已经宣布“接入DeepSeek”,覆盖从芯片、算力服务商到AI用户到最终用户各级生态圈。

    开年复工后的第一次全员周会上,峰瑞科技组的同事们对DeepSeek进行了深入讨论。本文将通过七个关键问题,剖析DeepSeek爆火的原因及其带来的多维度影响:

    DeepSeek为什么这么火?

    DeepSeek真正的技术创新是什么?

    为什么是DeepSeek?

    Scaling law还成立吗?

    DeepSeek给其他模型厂商带来什么影响?

    DeepSeek对硬件生态带来什么影响?

    DeepSeek如何影响应用生态?

    此外,我们还在文末总结了部分与此相关的投资机会。

    在这个AI技术飞速发展的时代,DeepSeek的故事或许只是开始。

    01 DeepSeek为什么这么火?

    第一个问题,我们先来回答DeepSeek到底为什么这么火?

    从我们的观察来看,DeepSeek这一轮的爆火,有20%是得益于技术创新,80%是来自于它从开源生态中获得影响力和背后的中国元素。

    技术上,简单说,DeepSeek用极低的算力成本,实现了比肩全球一线预训练大模型的能力。以及,DeepSeek第一次真正公开了用强化学习(Reinforcement Learning,简称RL)做推理模型的可能路径。强化学习是一种机器学习方法,通过智能体(Agent)与环境(Environment)的交互,学习最佳策略。

    实话说,仅靠这些,DeepSeek可能还不足以引起全球范围内如此强烈的反应。

    更多的影响力其实要归功于这些创新背后的中国元素。某种程度上,由于海内外的信息差,中国团队这一次推出的大语言模型使人们惊讶——中国AI行业的发展情况可能与OpenAI所代表的最先进水平之间,没有想象中差距那么大。但同时,DeepSeek也引发了很多质疑和讨论。当然,这些都是短期影响。

    长期来看,DeepSeek的成功给中国带来了更多进行技术创新的信心,无论是投资人还是创业者,可能都从其中看到了更多的可能性。

    另外,开源这件事情功不可没。DeepSeek作为后来者,不像海外大厂,没有什么包袱,所谓“光脚的不怕穿鞋的”。DeepSeek几乎将其所有研究成果都直接开源,打破了OpenAI o1系列模型的垄断地位,这对整个圈子造成很大的冲击。

    小结

    所以,理性来看DeepSeek出圈这件事,市场情绪因素占大头。 当然,我们也不能否认DeepSeek团队确实在技术上做了很多创新。

    02 DeepSeek真正的技术创新是什么?

    DeepSeek从成立至今,一共发过9篇论文。其实在大模型技术圈子里,大家对DeepSeek的技术实力早有认知。

    DeepSeek技术创新的答案,在2024年底和2025年年初发布的两篇技术报告——《DeepSeek-V3 Technical Report》、《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》,以及它们推出的开源模型之中。

    从目前的观察而言,DeepSeek的技术贡献主要体现在工程上的创新。它没有发明新的范式,但在现有技术的基础上进行了大量优化。

    让我们着重看看让DeepSeek出圈的核心工作:

    一、DeepSeek V2

    2024年5月,DeepSeek发布了V2模型,将API(Application Programming Interface,应用程序编程接口)价格大幅降低,定价为每百万tokens输入1元人民币、输出2元人民币,直接将价格打到GPT-4的1/35。

    DeepSeek掀起了大模型市场的价格革命。据《21世纪经济报》报道,2024年5月,百度旗下文心大模型两款主力模型全面免费。阿里云紧随其后,将通义千问GPT-4级主力模型的API输入价格从0.02元/千tokens降至0.0005元/千tokens,降幅达97%。

    DeepSeek V2的性能已经接近GPT-4,成为性价比极高的选择。可以说,国内其他同行还在努力追赶GPT-4的性能时,DeepSeek已经凭借低价和高性能脱颖而出。

    二、DeepSeek V3

    DeepSeek V3在V2的版本上,进一步强化了降本增效的能力。V3相当于是对标OpenAI GPT4o的预训练大模型,它以极低的算力成本,实现了和其他模型同等甚至表现更好的结果。

    DeepSeek之所以能做到降本增效,可能要归功于团队在工程层面做了大量的工作和创新,比如,在算法软件框架以及配合硬件的实现方面。

    在软件上,核心有两点,一个是MoE(Mixture of Experts,专家混合模型)的专家模型架构,“用空间换时间”。

    2023年,法国AI公司Mistral AI最早大规模开源MoE模型,它曾经推出Mixtral 8x7B模型,采用了8个专家,每次推理时激活其中的2个专家。

    DeepSeek则增加了专家数量,缩小了每个模型的规模。虽然单个专家性能有所下降,但整体性能却因“人多力量大”而提升。

    具体来说,DeepSeek的MoE架构把前向推理网络划分成了1个共享专家以及256个独立专家。模型每次预测的时候,只会激活共享专家以及另外256个专家中的8个专家,大大降低了算力消耗。

    此外,DeepSeek还在训练过程中通过偏离函数,调整专家负载,避免出现“强者越强,弱者越弱”的马太效应。

    虽然MoE架构很有价值,但在不少应用场景里,Dense Model(单一专家模型)也有优势,比如面向B端的专用领域或者端侧小模型。所以,我们也不能完全下定论,认为MoE未来就会“一统江湖”。大家有各自不同的模型架构,选择的应用场景也不同。

    另一点,MLA(Multi-head Latent Attention,多头潜在注意力)是DeepSeek成为“价格屠夫”的核心技术之一,这种方法是“用时间换空间”。

    大模型推理离不开Attention计算,而Attention计算中,KV缓存(Key-Value 缓存)是主要的存储开销。在Transformer模型的自注意力机制中,输入元素会被转换成查询(Query)、键(Key)和值(Value)这三种类型。KV 缓存就是在推理过程中,把先前步骤计算得到的 Key 和Value矩阵缓存起来,避免在生成新token时重复计算整个序列的Key和Value。

    DeepSeek通过矩阵分解的方法,将KV缓存压缩后再投影回高维空间,从而大幅降低了存储开销。这种技术原理简单但非常有效,实现了推理价格骤降。

    MOE和MLA结合在一起,降低了模型对硬件算力和显存带宽的需求,因此,DeepSeek让整体成本下降了一个数量级。

    前面谈到的是软件架构上的创新,那么在硬件架构实现上,DeepSeek V3第一次公开了很多新的工作。比如,用低精度的FP8(即8位浮点数表示法,是一种用于提高计算效率和动态范围的数据格式)做了大量的计算工作。再比如,通过大量PTX(Parallel Thread Execution,是NVIDIA为其GPU设计的一种并行指令集架构)的底层开发能力,“压榨”硬件的性能,来降低计算和通信的开销。

    所以,从DeepSeek V3整体的工作来看,其实没有太多概念创新,大多是站在前人肩膀上,优化了MoE、MLA等已有的方法,但却有极高壁垒的工程创新。

    以及,还有一个问题值得我们思考——V3中的这些工作,是团队主动创新的结果?还是只是硬件资源受限情况下的被动选择?如果能有更多更强的算力资源,这些创新是否还会出现,以及是否还有必要?

    三、R1 Zero和R1

    接下来我们再看看R1 Zero和R1,它们是对标OpenAI o1系列的推理模型。自从o1发布之后,业界和学术界对它的实现方法有很多猜想,甚至还有人说OpenAI团队主动放出了一些不相关或错误的方向来误导大家。

    抛开这些猜测不谈,这次DeepSeek发布了R1,实实在在地通过自己的探索,用强化学习实现了比肩o1的推理大模型,并开源了相关的工作,非常厉害。从我们的观察来看,强化学习是通向AGI的一个递进路径,业界已经在尝试这个方向。

    为什么在当下,大模型们开始“卷”起了推理能力?

    这一趋势的背后,是大模型在开放性问题上难以超越人类的困境。尽管大模型在诸多任务上表现出色,但在需要深度推理和专业知识的复杂问题上,它们仍然面临巨大挑战。

    以GPQADiamond基准数据集为例,该数据集专门用于评估模型在复杂问题上的推理能力和专业知识水平。即使是经过博士学术训练的人类,回答这些问题的准确率大约在65%到70%之间。而目前,大多数大模型在这类问题上的表现,仍远低于人类水平。

    可喜的是,已经有少数领先的大模型,如DeepSeekR1、OpenAI o1,它们在GPQADiamond等难题上的表现,已经超过经过博士学术训练的人类。

    这种进步揭示了行业竞争的焦点正在从单纯的规模扩展转向更深层次的智能优化。推理能力的“内卷”,可能意味着大模型进入了新的发展阶段。

    同样是推理模型,R1 Zero和R1有所区别:

    R1 Zero是更纯粹的RL-based Model,用DeepSeek自己的预训练模型V3,没有经过任何人类知识的调教,直接用一些数学或者代码的这类有明确“ground truth”(真实值,在机器学习和计算机视觉领域,指的是数据集中每个样本的真实标签或结果)的问题,做强化学习,得到了不错的结果。

    R1相比R1 zero,用了更多工程化的方法,也加入了类似模仿学习的SFT(监督微调),进一步提升语言能力和全面性能,用户来说更好友好。

    具体的技术细节和评测结果不详细展开了,强烈建议大家去读《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》这篇论文,写得非常清楚、优美。

    某种程度上,DeepSeek R1也没有发明任何新范式。OpenAI已经给业界指明了方向,一个是用纯粹的强化学习而非人类反馈做后训练,来提升模型推理能力。

    另一个是Test-Time Compute的方法,通过延长推理时间,来提高输出质量。模型不是直接输出结果,而是先推理出中间结果,随着推理时间的增加,最终结果的质量也会提升。这一点在大家用DeepSeek过程中应该都有体会,就是看到的那个中间有点儿自言自语的思考过程。

    因此,DeepSeek核心的贡献是帮助强化学习、Test-Time Comput这两个范式快速出圈。相比其他模型厂商,它手比较快,而且直接把工作开源了。

    但无论是R1中的强化学习框架GRPO,还是上文提到的用很多数学、代码问题来做reward(奖励机制),都是一些相对常用的方法。DeepSeek R1更多还是靠V3的强大能力,能在有限的搜索空间内找到正确答案,从而帮助模型快速迭代和收敛。打个比方,如果基础模型不够好,可能需要从1万个样本中找到1个正确答案;而好的基础模型,则可以在100个样本中找到正确答案,从而大大加快迭代收敛的速度。

    小结

    总的来说,DeepSeek的技术贡献主要体现在工程上的创新。尽管它没有发明新的范式,但在现有技术的基础上进行了大量优化,特别是在强化学习应用于推理模型方面。我们需要以更理性的心态来看待DeepSeek爆火。

    03 为什么是DeepSeek?

    为什么是DeepSeek?

    首先,从整体上看,模型的发展速度虽然很快,但其实AI行业整体的创新速度放缓了,不同团队的认知差异也在缩小,大家能想到的方法正在逐渐收敛。这种现象跟国别无关,是全球学术界和产业界共通的情况。当技术创新变慢的时候,中国团队的工程能力优势就体现出来了。

    第二,我们也不能忽视DeepSeek背后的这家公司——幻方量化,以及其“工程基因”的影响。要做好量化交易,一方面需要有强大的策略,但另一方面,能否以最快的速度执行这些策略可能更为关键。哪怕只是纳秒级别的速度优势,也可能决定你在某次交易中能否赚钱。

    幻方量化的基因使得DeepSeek在底层硬件优化和开发方面拥有丰富经验,从而能够加速算法的执行效率。例如,幻方量化在过去面对复杂的量化交易任务时,可能需要对FPGA(现场可编程门阵列)进行深度定制研发,并在C语言中嵌入汇编语言,以提高硬件调度的效率。

    这些工程经验已经体现在DeepSeek的V3版本中。比如,在优化GPU时,DeepSeek大量使用了在量化中交易中经常用到的底层开发思路,选择“绕过CUDA”,直接使用PTX进行编程,从而进一步提升性能。

    第三点,DeepSeek的商业模式和开源文化,支撑了他们的长期发展。这种长期性能够帮助团队建立研究导向和创新的文化。DeepSeek可能没有短期的营收和商业化压力,反而能吸引更多真正想做事的人才,“做正确而非容易的事情”。

    小结

    DeepSeek的成功源于多方面的优势:在AI行业整体创新放缓的背景下,中国团队的工程能力优势凸显;孵化公司幻方量化在硬件优化和高效执行方面的经验影响了DeepSeek;DeepSeek的商业模式和开源文化,使团队能够专注于技术创新而非短期商业化压力。

    04 Scaling law还成立吗?

    DeepSeek发展到了今天,那么大模型的未来会走向哪里?Scaling Law(缩放定律)还会成立么?

    大模型最开始出现时,其根基就是Scaling Law。Scaling Law描述了随着数据量、计算资源和模型参数的增加,语言模型性能如何显著提升。具体来说,从GPT到GPT-4,研究人员通过增加更多的数据、算力和模型参数,使得模型效果显著提高。这种规律为设计更大规模的模型提供了理论依据,并成为近年来大模型发展的核心驱动力。

    那么,Scaling Law在未来是否仍然成立?我们可以从三个方面来看。

    一、预训练阶段:Scaling Law接近极限

    在预训练阶段,目前业界共识是Scaling Law已经接近极限。主要问题在于缺乏新的高质量数据。在这种情况下,盲目增加模型参数可能导致过拟合,也就是说,模型对于见过的数据表现很好,但泛化能力反而下降,从而影响模型的整体性能。例如,OpenAI在开发GPT-5时遇到的困难,也反映了这一挑战。尽管如此,研究者们仍在努力推进。

    二、后训练阶段:Scaling Law优势显现

    在后训练阶段(post-training),Scaling Law的优势变得更加明显。无论是传统的监督微调(SFT),还是基于人类反馈的强化学习(RL),都能看到这种优势。最新的DeepSeek和其他模型系列已经开始采用基于强化学习的后训练范式,显示出良好的规模效应。

    值得注意的是,在后训练阶段,目前所需的算力还相对较少,平均仅占预训练阶段的1%不到。当然,这一比例正在逐渐增加。据业内人士推测,R1的后训练算力占比已经接近10%。如果能进一步扩大后训练的规模效应,那么模型的整体性能有望得到进一步提升。

    然而,在后训练阶段,大模型仍面临一些挑战,比如,怎么定义reward,这是做好强化学习的关键;以及获取高质量的数据,特别是专业问答和CoT(Chain of Thought,思维链)数据。目前,学术界和产业界正在探索人工标注和合成数据的方法来解决这些问题。

    三、推理阶段:延长推理时间,提升性能

    在推理阶段,Scaling Law同样有所体现,比如在上文提到的Test-Time Compute上。模型的输出过程本质上是一个计算过程。如果允许模型有更长的思考时间,它可以通过反复尝试和自我修正来优化答案。例如,模型可能一开始给出简单的答案,但在中间发现错误并进行调整,最终得出更准确的结果。这种方法能够显著提高模型输出的准确性,也是Scaling Law的一个具体表现。

    小结

    总结来看,Scaling Law仍然成立,只不过应用范式发生了变化,其在后训练和推理阶段依然具有重要意义。

    05 Deepseek给其他模型厂商

    带来什么影响?

    首先,我们需要明确一点:DeepSeek目前主要是一个大语言模型,暂时不具备多模态的能力。在与其他有多模态能力的模型进行比较时,需要考虑到这一点。

    一、对海外大厂的影响

    对于海外的大厂,如OpenAI(GPT-4系列)、Anthropic(Claude 3.5)和Google(Gemini 2.0),这些公司在多模态能力、泛化能力以及工具链开发者生态方面仍然具有显著优势。它们有很多的储备技术,因为战略考虑可能暂时不会都放出来。此外,它们在算力资源上也有明显的优势。

    尽管DeepSeek引起了广泛关注,但我们仍需正视与这些海外一线公司的差距,实现真正的超越还有很长的路要走。

    就在2月18日, 马斯克的xAI 发布了更新版 Grok 3大模型。 在直播的现场演示中,Grok 3在数学、科学和编程基准测试中,击败了包括DeepSeek的V3模型和GPT-4o在内的多个模型。

    二、对国内模型厂商的影响

    在国内市场,DeepSeek对于对面向消费者的(ToC)模型厂商影响较大,对于面向企业的(ToB)模型厂商影响相对较小。

    在ToC领域,部分厂商可能会感受到较大的冲击。这些厂商面临的挑战更多在于开源与商业化的选择:如果保持闭源,是否能达到一线模型水平?如果选择开源,是否会颠覆现有的商业模式?

    不过,我们不能低估国内其他模型厂商团队的技术创新能力。比如Kimi最新发布的K1.5模型在学术界获得了很高的评价,其工程创新也非常值得学习。

    目前来看,ToB的模型厂商也受到了一定的影响。长期来看,企业客户会做出理性决策,但在短期内,可能受市场情绪影响,尝试使用DeepSeek。这有助于教育市场,但长期效果还需观察。

    此外,DeepSeek本身其实也要考虑如何持续“接住泼天的富贵”。未来,DeepSeek是否会通过融资扩大规模,还是继续保持小规模专注于研发?我们拭目以待。

    三、对开源社区的影响

    DeepSeek对开源社区无疑是利好的。DeepSeek爆火,将促使其他开源模型(如Llama)不断创新,而不是固守已有成果。这对整个社区的发展是有益的,同时也促进了闭源厂商的进步。

    四、对小模型公司的影响

    DeepSeek曾在论文中展示了通过大模型的能力蒸馏(distillation)来提升小模型推理能力的可能性,并同步开源了基于通义千问Qwen或Llama的蒸馏模型。这表明,优秀的“老师”模型可以更高效地指导小模型学习。

    这将对自研模型的中小企业产生积极影响。尤其是在端侧部署的应用中,无论是C端还是B端应用,或许能借助这一方法提升性能。

    小结

    整体来看,DeepSeek虽然在多模态等方面有欠缺,但其无疑在推动行业的发展。我们既不能低估国内团队的技术创新能力,也需正视与这些海外一线公司的差距,想要实现真正的超越,我们还有很长的路要走。

    06 DeepSeek对硬件生态带来什么影响?

    接下来,我们讨论一下DeepSeek对硬件生态的影响。在DeepSeek最火的那几天,它对整个美股市场,尤其是英伟达的股价造成了短期冲击。那么,未来DeepSeek是否会挑战英伟达的地位?

    要回答这个问题,我们首先需要了解英伟达的核心壁垒是什么。英伟达的核心壁垒不仅仅在于其单芯片的设计能力,尽管这一点已经非常强大。更重要的是,英伟达通过其芯片互联能力(如InfiniBand、NVLink以及强大的软件生态系统CUDA)形成了一个坚固的生态壁垒。这种生态壁垒是英伟达最核心的能力之一。

    了解了英伟达的核心竞争力后,我们可以分析出DeepSeek对英伟达的影响。首先是正面影响:

    一、DeepSeek的成功教育了市场,增强了人们对AI应用的信心,并吸引了更多的初创企业尝试开发AI应用。

    据业内人士消息,自DeepSeek发布以来,市场上H100和H200等高端GPU的价格有所上涨,这表明更多公司愿意购买这些硬件来开发自己的模型和应用。

    二、推动通用GPU的需求。DeepSeek这样的厂商,持续在模型架构方面进行创新,这对英伟达这样的通用GPU制造商是有利的。因为通用GPU更适合用来尝试新的方案和架构,而一些专用芯片可能没那么适合。

    然而,DeepSeek也给英伟达带来了一些负面影响,比如英伟达的市场定价策略可能会受到冲击。

    原因在于,首先,DeepSeek采用的Mixture of Experts (MoE) 架构显著降低了对芯片间互联能力的要求,从而减少了对高端互连技术的依赖。如果越来越多的模型厂商开始采用MoE或其他类似的架构,将会带来新的硬件机会。

    其次,DeepSeek提供了潜在“绕过”CUDA的可能性。DeepSeek提出了适配其模型的硬件架构设计需求,暗示着未来“绕过”英伟达的CUDA生态系统的可能性。

    同时,国产芯片对DeepSeek模型的快速适配,也反映了中国硬件行业的潜力。但需要注意的是,DeepSeek团队并没有直接绕开英伟达。DeepSeek使用了比CUDA更底层的编程语言PTX,以便于更好地发挥出硬件性能,而PTX是英伟达的核心技术。

    DeepSeek是否推动了除英伟达以外的AI芯片行业的创新机会?这也是我们非常关注的一个热点方向。

    短期来看,DeepSeek确实带动了许多低性能卡的应用,包括一些国产卡。只要企业具备足够的工程优化能力,这些卡就能够被用起来,我们也能实现软硬件闭环式的自主创新。

    长期来看,AI芯片行业无疑存在新的机会。除了近期备受关注的新硬件架构(如3D堆叠、大规模互联技术和高显存设计)外,编译和软件生态的建设也至关重要。正如我们在讨论英伟达壁垒时所提到的,仅有单芯片能力和互联能力是不够的,整个软件生态系统才是决定其长期成功的关键因素。

    小结

    总的来说,DeepSeek一方面对英伟达带来了挑战,另一方面,也为整个AI芯片行业带来了新的机遇和发展方向。对于行业参与者来说,如何适应这种变化并找到适合自己的发展路径,将是未来需要重点考虑的问题。

    07 DeepSeek如何影响应用生态?

    我们再来讨论DeepSeek对整个应用生态的影响,可以从三个方面来看:

    一、提供了低成本方案,完成了市场教育

    首先,DeepSeek提供了一种非常低成本的方案,这显然能够为应用(无论是ToC还是ToB)带来更高的投入产出比,并助推更多的行业应用落地。

    在短短几周内,DeepSeek完成了全市场的教育,使政府、企业高层管理人员以及普通用户都开始使用相关的大模型。甚至我们的父母都开始用起了大模型。

    然而,在短期内,市场可能会存在高估的情况。尤其是在B端,实际落地效果可能会与预期有所偏差。从我们问到的几家企业的反馈来看,客户的呼声很高,但实际测试结果显示,DeepSeek在某些任务上的表现,可能并没有外界传闻的那么领先。

    二、验证了大模型蒸馏小模型的可行性

    其次,DeepSeek R1验证了大模型蒸馏小模型是可行的,这对于端侧模型部署和应用有很大推动作用。无论是在PC、手机还是其他智能硬件上,部署成本的大幅降低,将推动更多新应用落地。这对于我们投资在端侧部署的应用有重要意义。

    三、助推强化学习这种计算范式

    从更长期一些来看,DeepSeek影响了强化学习这一计算范式。R1已经验证了这种范式,真正公开了用强化学习来做推理模型的这个可能的路径。

    但目前,强化学习的应用范围主要局限在数学或代码等相对客观的领域。未来,这种计算范式是否能够扩展到物理世界,并解决更多现实世界的推理问题,以及如何应用于AI agent和具身智能,是非常令人兴奋且值得探讨的方向。

    小结

    通过对以上七个问题的探讨,我们可以看到,DeepSeek对AI芯片行业和应用生态产生了深远的影响。

    毫无疑问,DeepSeek的贡献令人敬佩。但当前市场是否明显过热?或许对于投资人、创业者以及使用大模型的朋友来说,我们不妨让子弹再飞一会儿,冷静观察一段时间。与此同时,我们期待中国市场能诞生更多像DeepSeek这样的原始创新成果。

    08 投资机会

    一、大模型竞争进入下半场

    大模型的竞争已进入下半场。

    在丰叔看来,大模型下一步会向轻量化、垂直化、端侧化这三个方向发展。轻量化意味着模型和硬件成本需要收敛,不然能用得起的人有限。垂直化则意味着模型需要在特定能力上收敛,而不是指望一个超大模型解决所有问题。端侧化是指模型必须放到手机、手表、耳机等终端设备上,才能真正实现技术的普及。

    随着下游应用逐步实现规模化落地,模型训练、微调和推理效率成为行业关注的焦点。

    以DeepSeek为代表的创新实践表明,强化学习和长文本生成能力有助于提高大模型输出质量、提升小模型性能。尽管MOE架构增加了软件系统的复杂性,但它显著优化了硬件带宽需求,降低了硬件门槛,使得成本更低的硬件也能高效运行模型。

    未来,随着模型能力的进一步提升和总成本的持续下降,AI普惠将成为下一阶段的核心目标。技术的普及将推动大模型在更广泛的应用场景中落地,创造更多商业与社会价值。

    二、人机交互发生变化,AI落地的应用临界点似乎已经到来

    当下,人与信息、人与机器的交互方式正在发生深刻变化。这种变化将催生新的信息分发渠道和流量入口,推动用户界面和服务形式的创新。另一方面,随着人工智能能力的不断增强以及成本的降低,许多行业都在积极探索AI技术的应用落地。

    在这样的背景下,我们应当关注一些在传统软件时代难以实现的“新物种”,例如:

    跨领域结合的软件或Agent:通过软件与硬件的深度融合,Agent能够实现更强的独立性和更丰富的功能,从而为用户提供更高效、更智能的服务。

    新形态的个人交互终端:随着数字化的进一步普及和多模态技术进步,AI有望接入更多数据,成为人类的“外脑”,帮助我们处理记忆、理解甚至是决策等任务。

    新型人力服务外包:将软件能力转化为服务形式进行外包,提供更具创新性和灵活性的新型外包服务,满足不同行业的需求。

    未被软件化的行业:这些领域中蕴含着丰富的AI落地机会,值得我们深入挖掘和探索。

    展望未来,随着供应链能力的不断提升,中国的AI技术有望进一步拓展海外市场,实现全球化布局。

  • 马斯克的Grok3背后还藏着哪些华人AI大牛?

    马斯克的Grok3背后还藏着哪些华人AI大牛?

    北京时间2月18日中午,马斯克为xAI亲自现身站台的Grok-3发布会上,两位坐在“C位”的华人研究员引人注目。对“老马”来说,这场直播有些“复仇”OpenAI的意味——马斯克在直播中花式强调,“Grok-3研究18个月就追上甚至超越了OpenAI做了五六年的成果”。

    “Jimmy Ba,Leading research(首席研究员)”“Tony,working on the reason team”——两幅华人面孔的自我介绍堪称轻描淡写。

    《职场Bonus》据公开资料检索到,马斯克一旁的“Tony”(下图右2),是xAI的联合创始人之一 Yuhuai Wu (吴宇怀)。2021年多伦多大学博士毕业后,吴宇怀在斯坦福大学进行博士后研究。他曾是Google AI的研究员,个人的研究兴趣是“building machines that can reason”(制造会推理的机器) [1] 。

    ● Grok-3发布会

     

    ● xAI团队里的已知华人大牛

    值得一提的是,吴宇怀博士期间曾先后在OpenAI实习过4个月,谷歌DeepMind实习过11个月。而他现在没有留在任何一家公司,自己选择了创业,追寻自己向往的AGI。

    ● 吴宇怀的X主页,xAI联合创始人,关注推理

    而图左边第二座那位更是领域的带头人。 Jimmy Ba 是“深度学习三巨头之一”。他硕博都就读于多伦多大学,是AI“教父”、诺贝尔物理学奖获得者Geoffrey Hinton的学生。不仅如此,他也是多伦多大学计算机科学系助理教授,相当于也是吴宇怀的老师。更有趣的是,Jimmy Ba也曾在谷歌DeepMind实习。

    同时,他们两位也都是xAI团队的创始成员。

    ● Jimmy Ba的X主页,xAI研究负责人,从事软件与研究

    据麦克罗波洛智库的报告 [2] ,在美国顶尖人工智能人才中,来自中国的研究人员占38%,美国占37%。中国在人工智能领域的人才培养上已超过美国,成为全球最大的AI研究者输出国。

    在xAI团队中更是体现了这一点:

    · 创始团队12人中有5位华人,占比超40%;

    · 图像团队4人中有2位华人;

    · 核心研究团队持续有优秀华人加入。

    2023年7月,马斯克高调官宣xAI创始团队12人,其中有五位都是华人,占比超40%。除了吴宇怀和Jimmy Ba之外,还有Greg Yang(xAI数学家)、Guodong Zhang、Zihang Dai。另外还有一位负责AI硬件和半导体研究的华人高管,Xiao Sun。

    ● xAI创始团队

    从他们的教育背景来看,既有清华、北大、浙大国内顶尖高校的毕业生,也有哈佛、耶鲁、多伦多等世界名校的深造经历。几位科学家也都在各自的领域颇有建树。

    Greg Yang (杨格)是一位对数学有着超高热情的数学家。他是湖南人,初中就开始去美国学习,本硕毕业于哈佛大学数学系,2018年还曾获得本科生数学领域最高荣誉Morgan Prize。毕业后经推荐进入微软雷蒙德研究院,担任研究员。此前也参与过微软与OpenAI在大模型上的合作。现在正专注开发一个用于了解大型神经网络的框架,“Tensor Programs”(张量编程)。

    ● Greg Yang

    Guodong Zhang (张国栋)本科毕业于浙江大学信息工程专业,博士毕业于多伦多大学,师从Roger Grosse,专注于培训、调整和对齐大语言模型。曾获得2022年苹果博士奖学金、2015年全国大学生数学建模竞赛一等奖(1.5%)等。

    ● 张国栋,xAI创始成员

    Zihang Dai (戴子航)本科毕业于清华大学,硕博毕业于卡耐基梅隆大学。曾在网易实习一年,而后在2013年入职百度,担任百度深度学习研究所的工程师。读研期间,也曾在美国的百度实习。读博期间在谷歌实习,专注语言处理。博士毕业后在Google Brain就职研究员4年,来到xAI。

    ● 戴子航,xAI创始成员

    Xiao Sun,前IBM T.J. Watson Research Center(托马斯·J·沃森研究中心)研究员、Meta研究科学家。Xiao Sun是耶鲁大学博士,师从T. P. MA Group教授,本科就读于北京大学。毕业后他在IBM度过了六年多的职业时光,专注于机器学习硬件与算法的研究。2023年9月加入xAI。

    ● Xiao Sun,xAI高管,关注AI硬件和半导体研究

    不仅创始团队中华人占多数,据《新智元》消息, Grok 发布的文生图模型 Aurora,采用当下最为前沿的 MoE 架构。其团队在短短 6 个月的时间里,便实现了从0到1的搭建。而团队仅有4人,其中就有两位华人:Haotian Liu和Lianmin Zheng(郑怜悯)。

    其中, Haotian Liu 本科毕业于浙江大学,2024年5月博士毕业于威斯康星大学麦迪逊分校,师从Yong Jae Lee。Haotian Liu对计算机视觉和机器学习感兴趣,参与开发Llava,Grok-1.5V和Grok-2,最近的重点是构建可进行的大型模型。

    ● Haotian Liu,文生图团队成员

    郑怜悯 本科毕业于上海交通大学ACM班,2024年博士毕业于加州大学伯克利分校,导师是Ion Stoica和Joseph E. Gonzalez。郑怜悯的研究兴趣包括机器学习系统,大型语言模型,编译器和分布式系统。

    ● 郑怜悯,文生图团队成员

    除此之外,xAI中还有很多华人研究员,如:

    曾在微软、推特、脸书、字节等任职过,硕士毕业于上海交通大学的 Xiaobin Wu ,有着多年 Backend Engineering/Engineering Manager/Engineering Director(后端工程/工程经理/工程总监)开发和管理经验。

    ● Xiaobin Wu,xAI技术人员

    毕业于清华大学,曾在谷歌任职近8年的 Yunlong Liu 。 2017年于约翰霍普斯金大学博士毕业,攻读计算机生物物理学。在谷歌时主要负责Core ML complier(核心机器学习编译)/Runtine (OpenXLA/PjRt) Large-scale ML systerm(运行大规模机器学习系统)。现在在xAI负责大规模AI Infra和LLM Pretraining。

    ● Yunlong Liu

    毕业于台湾大学,曾在Linkedin任职近3年的 Pin-Lun (Byron) Hsu 。Byron目前在xAI负责full stack of ML system(ML系统全栈)工作。曾经领导过领英增长最快的开源项目“Liger-Kernel”项目的Kernel optimization(核心优化),并负责过领英SGLang项目的Inference Optimization(推理优化)。

    ● Pin-Lun (Byron) Hsu

    马斯克的xAI团队晚成快赶,18个月追逐OpenAI。在AI这个快速发展的领域,人才的流动与聚集将持续改变着行业格局。

    这种”后发制人”的赶超,很大程度上得益于团队的人才结构。一方面,经验丰富的决策者必不可少。正如xAI从谷歌、微软等头部公司吸纳了很多经验丰富的顶尖科学家,来带头领路。

    另一方面,xAI也吸引了像郑怜悯、Haotian Liu这样充满创造力的毕业生。正如最近爆火的DeepSeek创始人梁文峰在采访中所说,他们的团队中有相当一部分是刚毕业的学生。这些”新生力量”虽然工作经验有限,但往往能带来意想不到的创新突破。

    在这场人才迁徙中,顶尖科学家们追求的已不仅是优厚的薪酬待遇,更看重”共同的愿景”。能在热爱的领域充分施展才华,往往是企业对人才最具吸引力的因素。

    也折射出人才迁徙的一个深层规律:年轻的人重在找到热爱,而有经验沉淀的人重在忠于热爱。

  • 只花30分钟,我真用DeepSeek磕出了一款游戏,能去大厂了吗?

    只花30分钟,我真用DeepSeek磕出了一款游戏,能去大厂了吗?

    “让人始料未及的是,哪怕游戏业早已将AIGC奉为圭臬,但变革当头,我们仍会懊悔过去对AI的想象竟如此贫瘠。”

    把时间拉回到数天前,或许是受到国产AI大模型DeepSeek触动,心动CEO Dash    (黄一孟)在X上分享了现阶段对AI应用场景的一些看法。

    他提到:“理论上从现在开始,    公司里不应该有任何人的工作与AI无关。无论工作内容是否由AI产出,至少工作结果要由AI检查一轮。”在笔者印象中,这似乎是自蔡浩宇、冯骥之后,又一位行业大佬公开表示对AI的强烈看好。

    需要注意的是,这段时间众多游戏人下场力挺DeepSeek,只是当代AIGC大流行的一处缩影。在过去一个月时间里,被冯骥评为国运级科技的DeepSeek,正不断冲刷游戏人对AI技术的固有认知。

    例如在最为活跃的民间应用层面。明明该技术出圈还没过多久,    但诸如“小白两天从0到1做出3D射击游戏”、“DeepSeek+AI全家桶研发游戏”、“0基础靠嘴皮子做游戏”、“DeepSeek+Unity3分钟生成完整游戏代码”等由玩家主导的教程视频,却如同雨后春笋般冒出。

    而其中让我感触颇深的是,相关视频的评论区正构成一幅戏剧性拉满的“绝景”:

    一边是游戏爱好者兴奋地摩拳擦掌,另一边却是打工人苦涩的自我解嘲。在35岁笑话的无可奈何中,去年蔡浩宇曾提到的“99%的普通游戏从业者不妨转行”暴论,似乎正一步步映入现实。

    毫无疑问,不断进化的AIGC技术,已经为整个游戏行业蒙上一层患得患失的雾霾。但身处风云骤变的大盘环境之中,更加注重当下的基层游戏人,脑海中萦绕的无非还是那个老套的话题——

    在DeepSeek火爆全网后,“机器吃人”的故事,距离我们还有多远?

    真变天了?AI游戏成本骤降90%

    近期关注DeepSeep的朋友可能会发现,在业界大肆吹捧DeepSeep有多牛逼之余,大众的注意力还会似有似无地往另一个话题偏移——    过去两年里,AI迭代的速度到底有多快?

    一个案例可以说明这点。在B站斩获超120万播放的《我让DeepSeek做射击游戏!他杀疯了!我沉迷了…》视频中,这位博主曾提到一个有关AI迭代速度的有趣观察。

    他发现,半年前的大模型死活只愿意用Pygame这种简单的框架去推进游戏研发。但半年之后,AI已经将Unity列入首选项。而AI所能实现的效果,也从最初的4399简陋版小游戏,跨越至如今更为复杂的3D大作。

    视频最后他也强调,“我相信如果再给AI一点时间,以后我们每个人想玩什么游戏,你说句话就能生成出来了。”虽然如今的AI技术要想达到“三生万物”的境界还比较遥远,但这位博主的发言也揭示了AI目前最令人胆寒的特性——它的迭代速度已经来到一个夸张的地步。

    就拿眼下已经成为2月主线的DeepSeek来说。    要论这些年AI最为显著的技术进步,那么”使用成本”与”内容精度”,无疑是最具说服力的两大板块。

    首先在困扰无数厂商的成本方面。在DeepSeek之前,市面上传统大语言模型的使用成本其实并不便宜。

    以去年行业颇为出圈的《1001夜》为例。作为一款对话式AI驱动的产品,玩家每次通关流程不长的《1001夜》,开发者都要为此付出1元的AI使用成本。面对每位玩家动辄4到5次的通关次数,迫于成本压力,团队只能暂时给游戏设置一个每天可游玩的额度上限。

    (当时《1001夜》只是一个流程不长的Demo版本,成本压力就已经如此之大……)

    在大语言模型已然成为创作领域必备工具的当下,《1001夜》所面临的成本挑战,也同样是AI深度游戏化进程中亟待突破的瓶颈。然而这一局面在2023年5月迎来转机——随着DeepSeek等新一代推理模型的问世,这项技术为长期困扰内容创作者的开发成本难题提供了全新解法。

    简单来说,去年DeepSeek就通过独创的MLA架构和MoE稀疏结构,让训练显存占用降至传统模型的5%-13%,最终实现推理成本低至每百万Token仅1元人民币。放在当时,这个价格仅是Llama3的七分之一,GPT-4 Turbo的七十分之一。

    恰巧,Open AI创始人Altman前不久刚露过一次面。据Altman提到,GPT-4在2023年初的使用成本,相比GPT-4o在2024年中期,其每个token的价格已经下降约150倍。这无疑是一组相当夸张的数据。

    考虑到圈外人对这些弯弯绕绕不太敏感,一位熟悉AI行业的华南游戏人告诉我:    “最初AI还比不上人工时,要想生成10万字可用的剧情脚本,成本足够养活两个文案策划。但现在同量级任务交给DeepSeek,只够买杯奶茶。”

    从某种程度上看,眼下不断降低的AI使用成本,已经揭示了游戏行业未来即将由AI主导。毕竟仅仅只是过了2年时间,AI技术的成本曲线就能以十倍乃至百倍的斜率不断下探,甚至还能用“奶茶”为单位去丈量个别职能岗位。可想而知,在强调“降本增效”的游戏行业面前,    没有任何一家公司能够抵挡“性价比”本身所带来的极致诱惑。

    例如前不久3D AI乙游《如意情探》的Jaz就在游戏茶馆的采访中透露:“DeepSeek现在的调用成本大概是我们之前使用模型成本的1/20。按照以前的商业模式,只有中氪和高氪玩家才能获得的最佳体验,但现在低氪或零氪也有机会享受得到。”

    面对这种烈度的技术迁移,2025年的游戏开发者恐怕早已站在历史性的拐点之上——无论行业是向上还是向下,这堵名为AI的钢铁巨幕,将始终屹立在道路两旁。

    (图源:阿里巴巴AI大模型通义千问)

    游戏大厂全都坐不住了

    如果说越来越低的使用成本,只是帮助AI通往游戏行业腹地的入场券,那么上文提到的AI第二项跨越式进步——“内容精度”,就是DeepSeek撬动游戏行业的关键杠杆。

    在过去,无论是首先引发AI热潮的ChatGPT,还是后来广泛应用于游戏研发的AI美术工具,其痛点一直都绕不开“答非所问”、“直出不能用”,“需要大量时间精调”这几组关键词。

    归根结底,这些缺陷所折射出来的核心问题,实际上直指AI没有共情能力、AI无法理解创作这几项致命短板。    但时过境迁,在DeepSeek身上,我发现“AI破解创作”这件事情并非毫无可能。

    例如在一篇来自github的《LLM    (大型语言模型)创意故事写作基准》报告中,DeepSeek R1成功挤掉了霸榜长达7月的Claude,晋升LLM创意故事写作榜第一。

    在此次创意故事写作测试中,测试规则不仅对AI笔下的故事流畅度提出挑战,同时它还要求AI强制嵌入十项核心叙事要素    (包括角色设定、背景构建、动作动机等)以验证AI的创作性能。而DeepSeek正是凭借出色的创意和规则贴合度,在共计500次创意故事写作中斩获270次第一    (54%),一举领先Claude、Gemini等大语言模型。

    在DeepSeek登顶背后,DeepSeek也让游戏从业者看到AI在内容精度和创作趣味性上的巨大潜力。

    不过其中最让行业感到兴奋的,无疑是Deepseek在测试中所展现的惊人“共情能力”和“互动性”——这正是包括米哈游、腾讯、网易等头部大厂目前迫切需要的。

    (图源:B站UP主途淄)

    早在数年前,头部游戏大厂就早早围绕“AI互动能力”展开极其深度的布局以及研究。例如在2023年前后,一家名为MiniMax的初创公司,就引得米哈游、腾讯在内的游戏巨头争相投资。

    据了解,Minimax是由前商汤科技副总裁、通用智能技术负责人闫俊杰成立的人工智能公司,目前旗下的主力产品是提供AI聊天服务的社交软件Glow,估值已超12亿美元。

    在这款产品中,用户可以选择创造属于自己的“智能体”,通过设定基础的性格、背景故事等人物特征,培养一位擅长聊天对话的智能AI,进而让用户体验跟虚拟人物聊天的乐趣。

    而MiniMax引动一众大厂跟投的原因也不难理解——与DeepSeek类似,Glow所拥有的AI智能技术能够给玩家带来身临其境的互动体验。这项技术的关键之处在于,它不同于传统AI的预设性对答,而是凭借模型本身自带的“即兴创作”属性,去主动模糊AI与真人玩家的互动边界。

    单凭这一点,有着较高共情能力的AI技术,就无疑能让强调情绪价值和社交属性的二次元、乙女、MMO等品类如焕新生。    因此,布局“强互动型AI”早已成为行业共识。

    以米哈游为例,早在2023年4月,《崩坏:星穹铁道》的制作人大卫就曾透露内部在NPC行为和台词中尝试投入过AI技术,让一直以来较为模式化行动的NPC显得更加自然。

    而同一时间,在与《女神异闻录》制作人的对谈中大卫也曾提到,希望AIGC技术能够将“不会重复回答台词的NPC”变成可能,从而给玩家提供更多新奇的游戏体验。

    既然包括米哈游、腾讯在内的顶尖大厂都被强互动AI迷得神魂颠倒,那么中腰部的游戏企业自然更不用说。

    举几个近期的例子,去年游族就在少年系列游戏中实装了面向玩家的首款AI产品——AI玩伴小游酱。据了解,小游酱不仅能够为玩家提供客服答疑和游戏攻略,还能在陪玩与倾听中,提供丰富的情绪价值。

    而就在几天前,游族也正式宣布小游酱将接入满血版的DeepSeek,计划在情人节当天与旗下的二次元手游《绯红回响》一起,为玩家带来别样的惊喜。

    与之相似的案例,还有来自幻境游戏CEO张筱帆再创业的“自然选择”公司。

    在去年10月12日,与幻境游戏(旗下《奇点时代》)互为兄弟的自然选择官方,在B站发布了AI伴侣《EVE》的首支预告PV,并在两天内收获了超过110万播放量。

    当然,有关AI伴侣的实际应用仅是这项技术最直接的落地方式。我们不妨试想,当高共情、强互动的AI能够感知玩家动机,即兴创建故事脉络时,游戏世界便从预设的剧本牢笼中挣脱,进而成为能够动态生长的内容生命体。

    (网易《逆水寒手游》也同步接入包括DeepSeek在内的诸多国产大模型)

    这种由强互动性催生的“叙事涌现”,或将颠覆延续数十年的关卡设计逻辑,让一款强调情绪价值的游戏具备前所未有的长青价值。我想,这或许才是DeepSeek眼下最值得游戏行业参考学习的能力之一。

    对打工人而言,是福?是祸?

    聊完DeepSeek所代表的AI技术两大变迁,我们也是时候回归最初的疑问——在DeepSeek火爆全网后,“机器吃人”的故事,距离我们还有多远?

    相信不少从业者也会和我一样深有同感——    每当AIGC取得突破,“又要裁员了吗?”,这个幽灵般的质问总会在行业群聊中复活。但现实可能要比想象复杂得多。

    对比贯穿2023年到2024年的AIGC恐慌,本质是市场下行所引起的“降本增效”,恰好跟AIGC爆发的“技术奇点”整上了一轮火星撞地球。

    但当时间进入2025年,情况正在发生变化:版号常态化发放、小游戏赛道爆发、头部爆款频出……行业进入复苏期后,“优化”不再是唯一命题。    更别提,DeepSeek代表的“生成即服务”模式,正在为游戏行业的工作模式带来全新的变化。

    过去我们常说,AI技术的加入只是让“流水线工人”变成“创意决策者”。一位从外包原画师转型AI美术的从业者,就向我描述了他亲身经历的行业变迁:

    “过去我每天画12小时铠甲花纹,现在80%的重复劳动交给AI,剩下时间全用在和策划吵‘这套衣服该用凤翅兜鍪还是交脚幞头?’。”他告诉我,在AI介入他的生活之后,日常工作反而变成了真正的创作。

    这种趋势在文案领域可能同样显著。一位总是活跃在各大群聊的MMO文案表示,前段时间他试水了DeepSeek的内容生成功能,它可以将耗时数月的“全门派技能描述”压缩到一周完成,而自己得以转而投入核心主线剧情的情绪张力打磨。“AI就像给每个人配了实习生团队,关键看你怎么用。”

    杀死“牛马”的,从来不是工具。回看游戏史,每一次技术革命都会引发“机器吃人”的恐慌,但最终被淘汰的从来不是人类,而是固守旧范式的工作方式。

    当DeepSeek们扛起“脏活累活”,从业者反而有机会回归创意本源——就像印刷术没有消灭作家,Photoshop没有杀死画家,真正的创作者永远能找到与新工具和平共处的方式。

    或许某天,当AI能独立开发出《原神》级产品时,游戏圈需要新的生存法则。但至少在今天,Deepseek更像是行业集体跃升的弹簧板。

    我们现在需要做的,只是踩准它的力量,而不是恐惧它的阴影。

  • Perplexity免费推出Deep Research:性能超过R1、o3-mini等,CEO:感谢DeepSeek

    Perplexity免费推出Deep Research:性能超过R1、o3-mini等,CEO:感谢DeepSeek

    AI搜索“老大哥”Perplexity,刚刚也推出了自家的Deep Research——

    随便给个话题,就能生成有深度的研究报告。

    先来划个重点:免费向所有人开放!

    具体来说,非订阅用户每天最多可查询5次,Pro用户每天可查询500次。

    然后啊,效果是酱紫的。

    例如给出一个问题:

    What should I know before the market opens?开市前我该知道些什么?

    在Deep Research加持下的Perplexity先是会查找海量的资料

    接下来是推理过程,用Perplexity的话来说就是专家级别的分析

    对原始材料进行充分评估之后,Perplexity就会将所有研究综合成一份清晰而全面的报告

    最后,你还可以把Perplexity写好的专业报告一键导出,格式包括PDF、Markdown和Perplexity Page:

    性能方面,Perplexity官方也给出了他们的测试结果。

    他们采用的基准,是最近考验AI推理能力大火的Humanity’s Last Exam(人类的最后考试),准确率达到了20.5%

    (注:“人类的最后考试”涵盖100多个科目、包含3000多个问题,涉及数学、科学、历史和文学等领域。)

    从成绩上来看,是优于Gemini Thinking、o3-mini、o1、DeepSeek-R1和其他许多主流模型。

    在另一项SimpleQA(一个包含数千个测试事实性的问题库)的测试中,Perplexity Deep Research的表现更是明显远超领先模型,达到了93.9%的准确率。

    更重要的一点是,Perplexity的Deep Research有够快——平均在3分钟内可以完成大多数研究任务。

    对此,Perplexity的CEO(Aravind Srinivas)公开致谢DeepSeek

    这是因为DeepSeek是开源的,又便宜又快。

    其实在10天前的一条推文中,Aravind Srinivas其实已经有所剧透:

    在推文下方的评论中,我们也看到了不少关于DeepSeek的身影:

    不得不说,DeepSeek的含金量还在上升

    实测Perplexity的Deep Research

    Perplexity新功能的操作方式也是极其简单。

    只需在搜索框下方的选项中pick一下Deep Research即可:

    从官方展示的案例来看,Deep Research擅长在金融、市场营销和技术等领域的深度研究,并且在健康、产品研究和旅行计划等领域作为个人顾问同样有用。

    例如在默认搜索和Deep Research下,同时问:

    What’s the best strategy for advertising at the Super Bowl? Analyze the ROI of each major advertiser at the 2025 Super Bowl. Which brands were the biggest winners and losers? What ad techniques were most and least effective? If I wanted to advertise at the 2026 Super Bowl, what should I do to maximize success?在超级碗(Super Bowl)投放广告的最佳策略是什么?分析2025年超级碗上每个主要广告商的投资回报率(ROI)。哪些品牌是最大的赢家和输家?哪些广告技巧最有效和最无效?如果我想在2026年超级碗上投放广告,我该怎么做才能最大限度地取得成功?

    可以看到,Deep Research给出的答案更像是一个专业的报告

    先是以类似论文“摘要”的形式,把问题的核心亮点全部提炼、总结出来,然后再撰写并展开包括Introduction在内的更多内容。

    同样的,让Deep Research完成撰写“黄仁勋传记”,从输出内容和格式来看,是更加清晰且一目了然:

    现在,也有很多网友开始在网上po出自己实测的效果。

    例如让Perplexity做下面这个任务:

    compile a research report on how has retail industry changed in the last 3 years.编写一份关于过去3年零售业变化的研究报告。

    然后这位网友还总结了一下Deep Research和普通AI搜索功能的区别:

    普通搜索为简单的查询提供快速的、表面的信息。它适用于查找基本事实或获得简短的摘要。另一方面,Deep Research是为需要深入分析的复杂、多层次的查询而设计的。

    正常的搜索通常会在几秒钟内产生结果。Deep Research是一个更耗时的过程,需要5到30分钟才能完成。

    但,好多“Deep Research”啊

    除了效果之外,对于Perplexity发布的Deep Research,网友们还有另外一个热议的焦点——名字

    例如有网友就直接提出了自己的困惑:

    Deep Research是你们能想到的唯一的名字了吗?

    其实这也不怪网友们提出这样的质疑。

    因为……现在有太多叫Deep Research的产品了……

    2024年12月,谷歌发布Deep Research

    2025年2月,OpenAI发布Deep Research

    2025年2月,Perplexity发布Deep Research

    AI的问题,我们就让AI来回答。

    Perplexity在回答中总结出了一个表格:

    CEO对此也给出了自己的答案,一言蔽之,就是“快好省”,不过他顺便还阴阳了一波OpenAI:

    我们每月不用200美元。

    最后,CEO还预告了一则消息,下周Perplexity还有一个很cool的东西要发布。

  • 20+ 车企接入 DeepSeek,为啥没有「蔚小理华米特」?

    20+ 车企接入 DeepSeek,为啥没有「蔚小理华米特」?

    DeepSeek 成为了蛇年开年最火的事物,连家里的爸妈甚至爷爷奶奶,都在过年的饭桌上叫我给他们讲讲 AI 是怎么回事。

    由于同时具备强大的推理能力及开源模型两个特质,导致几乎所有科技公司都在研究怎样和 DeepSeek「深度融合」一下。华为、腾讯、百度、字节等互联网巨头,尽管都有各自自研的模型,但不妨碍纷纷第一时间在自己的云服务器里接入 DeepSeek,一群因为「服务器繁忙,请稍后再试」的用户得以曲线救国,云服务商得以也接住了泼天流量。

    芯片、金融、电信等行业的头部玩家也因为相似的逻辑接入了模型。毕竟大家都希望体验一下 R1 模型的最强大脑。不管在业务层面起到了多大的帮助,大部分公司的股价至少都涨了。

    不过有一个行业稍显例外,那就是汽车行业的主机厂们

    截止 2 月 13 日,已经有包括比亚迪、吉利、东风、长城、极氪、智己等超过 20 家车企宣布完成和 DeepSeek 的深度融合。不过,新势力里的蔚小理华米,以及特斯拉均没有宣布和 DeepSeek 的相关融合信息。

    大模型上车,现阶段最大的问题,是还没有展示出足够好的场景。相反,在一些主机厂的微博评论区里,车主更在意一些已有的功能能否及时通过 OTA 得到优化

    可以看出,技术并不是用户最在意的点,用户真正在意的是产品体验。如何用更好的模型获得更智能化的体验,才是用户真正在意的。相反,如果现阶段不能达到更智能的体验,那么用户更在意的是这车好不好开,内饰舒不舒服,还有便宜不便宜。

    用户想得到的是一辆「更智能的车」,但并不代表他们要在车上用车机写出一篇高考满分作文。

    01 车企排队接入 DeepSeek?「如来」

    在目前各主机厂释出的有限信息里,DeepSeek 上车后,智能座舱中的人机交互,有望成为第一个深度融合的典型场景。

    智己、吉利发布的两条视频里,展示了 3 个和智能座舱有关的使用场景,分别是:

    场景 1:激活座舱模型,调用 DeepSeek 进行文本生成,如案例演示中「生成一篇文章庆祝亚冬会金牌诞生」。

    智能座舱通过 DeepSeek 进行文本生成 | 图片来源:视频截图

    在这个场景中,座舱通过接入 DeepSeek 的 API,把 DeepSeek「好文笔」搬上了车。和绝大多数人习惯在手机、电脑端操作略有不同的点在于添加了语音作为新的交互方式。

    场景 2:提问在某段里程中遇到的一个湖叫什么名字。DeepSeek 通过调用车辆行程记录、地图等信息,推理给出了相应答案。

    通过 DeepSeek 推理回答车主问题 | 图片来源:视频截图

    在这个场景中,通过接入 DeepSeek,把车机内储存的端侧信息(行程记录、地图)作为推理语料提供给了模型,由此可以得到更个人向的推理问答。

    场景 3:直接对车机表达「我累了,一会叫我」的模糊指令,车机识别后分别调整了车窗、座椅、空调、氛围灯、闹钟的硬件或功能,生成了一个休闲场景。

    通过 DeepSeek 实现模糊语义识别及相关车控操作 | 图片来源:视频截图

    和手机里的 DeepSeek 应用不同,接入车机后,最显著的不同在于模型可以调用车端信息作为推理语料,为车主提供更个性化的服务。

    不过,这些推理要消耗多少运算资源、需要怎样的硬件支撑、以及是否需要联网服务,目前主机厂还没有释出太明确的信息。

    02 更聪明的智能语音,未必是真 PMF

    DeepSeek 有希望让车内的智能语音变得更聪明,更能理解用户的各种模糊指令。不过,这真的此刻主机厂和用户最紧迫的真实需求吗?

    从企业端来说,目前积极接入 DeepSeek 主要分为三类,分别是:芯片、云服务和终端硬件厂商(手机+智能汽车)。

    对于芯片厂商而言,由于 DeepSeek 是基于英伟达芯片进行推理的,而不同芯片间架构不同,所以其他厂商必须进行软件和算法层面的适配,才能兼容 DeepSeek 的模型训练和推理。换句话说,芯片商参与到这轮 DeepSeek 热里,是出于用户最真实且紧迫的需求,这是保住和扩大市场必须要做的一个关键动作。

    云服务商的积极接入,也有类似的逻辑。对于 C 端用户而言,在频繁遭遇「服务器繁忙,请稍后再试」的提示时,云服务商的出现提供了新的入口,接住了这次泼天的流量,让人多普通消费者认识了自己;对于 B 端用户如开发者和企业用户而言,在云上部署 DeepSeek,可以降低企业使用模型的门槛,提供更好的开发体验。

    因此,在这轮 DeepSeek 热潮里,包括华为云、腾讯云、阿里云、百度云、火山引擎等主力玩家,都先后对 DeepSeek 进行了云端部署——哪怕这些云厂商背后的科技公司都有自己独立研发的模型,但用户要用 DeepSeek,他们就要接入这个开源模型。

    「不堪重负」的 DeepSeek 服务器 | 来源:网络截图

    但到了硬件领域,对终端厂商和用户来说,此刻在产品完成对端侧 DeepSeek 的部署,既有难度,也不是优先级最高的需求。

    首先,目前的端侧计算资源并不支持「满血版」DeepSeek 的本地化部署。不同于云端服务器,如果要在个人设备上部署 671B 参数模型的 R1 模型,需要将近 1300G 的显存,远超 PC、手机、汽车的端侧计算资源。如果退而求其次,用 7B 或 10B 的蒸馏模型,其推理能力又和满血版有显著差别。

    所以,如果把 DeepSeek 模型接入车机,但实质只是多了一个语音入口,对用户来说,为什么非要在车上使用 DeepSeek 而不是打开手机或电脑上的应用呢?

    对于智能汽车用户而言,相比车机是否可以解答一道数学题或者写出一篇好作文,显然更在意它是否能发挥好「助理」的角色。这才是真正的需求。例如,手机微信里接收到的地图甚至大众点评的餐厅位置信息,是否可以一键流转到车机导航,并显示在 HUD 导航里。这是减少车机端操作,提升体验的一个具体场景。

    而要执行这类任务,需要的核心能力并不在于 DeepSeek 所擅长的「推理」,而是打通不同设备间接口的工程能力。目前,包括鸿蒙智行、小米、蔚来等拥有多端设备的企业实际已经具备了类似功能。这大概也是为什么华为云宣布和 DeepSeek 融合,但鸿蒙智行旗下车企却暂时没有相关发声的原因。

    其实,无论是手机还是汽车用户,大家真正期待的是将 AI 的「大脑」和硬件的「身体」结合起来后的智能化体验,也就是 OpenAI 定义的人工智能阶段里,从 L2(推理者)到 L3(Agent)的提升。但在产品层面,这并不单单取决于某个模型的能力,还和硬件层面的产品定义、接口、功能开发都息息相关。

    03 除了座舱,DeepSeek 还能为车企做点啥?

    在产品层面之外,在近年角逐越来越激烈的智能驾驶层面,DeepSeek 能为车圈提供什么帮助吗?

    要回答这个问题,首先我们得知道目前智能驾驶开发层面最大的问题是什么?

    一句话概括,就是:目前智驾系统还搞不定复杂的城区路况,接管次数频繁,使用体验不佳。

    接管次数多的原因除了一些难以预测的安全情况,如行人横穿、车辆加塞、电瓶车逆行等,还包括系统对一些特殊交通规则的识别和判断,比较典型的场景包括:一线城市的潮汐车道、公交车道;不同城市左转、掉头车道设计思路不同(有些在最左侧,有些在最右侧);以及临时施工或管制时的各种电子屏幕信息。

    这些烧脑的交通变化,别说是智驾系统了,就算是人类司机,当第一次遇上这些情况,也得打起 100% 的专注度才不会走错道。

    理想汽车的 CEO 李想去年年中有个著名的演讲,把人类驾驶者的大脑分为系统 1 和系统 2,系统 1 负责以低能耗的方式处理直觉类工作,而系统 2 则负责在复杂情况中进行推理,处理各种 Corner Case。

    而以推理见长的语言模型 DeepSeek-R1,从原理来说是有望提升「系统 2」的能力的。例如,更精准识别和理解不同交通标识(公交车道、潮汐车道),从而做出更好的驾驶判断。并且,DeepSeek-R1 提高了模型的训练效率和推理能力,也有望优化车端的推理速度,在算力有限的端侧也达到更好的智驾能力。

    智驾开发的另一个难度,体现在数据采集侧。不同于语言大模型可以直接利用海量的数字文本资源进行训练,智驾往往需要先在真实物理世界中采集数据,才能进行训练。

    由于引入了 MoE(混合专家架构)、MLA(多头潜在注意力机制)等技术,DeepSeek 本身降低了对数据标注的需求,因此可以帮助智驾企业进行数据挖掘和生成,降低数采和标注的成本。

    而在另一个层面,DeepSeek 的多模态模型(非 R1)可以模拟生成一些难以采集的场景数据,如极端路线、罕见交通标识等。而通过仿真数据进行智能驾驶的训练或验证,也是包括华为、蔚来等多家车企进行智驾模型训练的重要工作之一。

    以上这些工作,虽然不像云服务商接入 DeepSeek,可以直接解决用户访问主站时转圈圈的燃眉之急,但对车企而言同样重要。毕竟比亚迪已经喊出了「全民智驾」的口号,智驾毫无疑问将成为 2025 年竞争的重点。在同价位段车型里提供更好的智能化功能,将成为消费者选择决策中新的重要考量因素。

    当然,正如前文所言,一辆智能汽车各项功能的发挥,不仅只仰仗于某些单一技术的突破,车端其他硬件层面的优化(如更大算力的智驾芯片)以及模型侧其他能力的优化,将共同决定我们何时达到 L3 级别的智驾智舱能力。

    DeepSeek 在智能化浪潮里,给了所有创新者一个小成本高性能的样本,但不是一套可以照抄的答案,未来的汽车产品应该走向何方,还需要真正懂产品懂 AI 的人来「深度求索」。

  • 测试过微信官方支持的 DeepSeek R1 后,我搞明白腾讯要怎么押注 AI 应用了

    测试过微信官方支持的 DeepSeek R1 后,我搞明白腾讯要怎么押注 AI 应用了

    微信自 2011 年推出以来,一直以创始人张小龙的「克制」而闻名,不会为了「风口」而改变微信本身。甚至今天你刷朋友圈的体验,都与十年前朋友圈刚刚诞生时没有本质的区别。

    「张小龙觉得对这个功能自己最满意的地方之一,就是一经发布几乎没有改进余地而稳定运行了十年。」极客公园创始人张鹏在与张小龙对话后,这样总结微信的产品逻辑。这一点在微信成为真正意义上的「国民社交 App」之后,也没有发生改变。

    而在 DeepSeek R1 发布后,这些标签就像面具一样,被微信团队自己猛然撕下:北京时间 2 月 15 日晚间,陆续有用户发现,在自己的微信搜索中,出现了整合了 DeepSeek R1 的「AI 搜索」功能——此时距离在 1 月 20 日 DeepSeek 正式发布并开源 R1,还不到一个月时间。

    在微信搜索界面中,就能看到 AI 搜索按钮 | 图片来源:极客公园

    对于收到本次更新的用户,在微信主页顶部的搜索栏中点进去,就能在搜索记录下方看到一个「AI 搜索」的按钮,点击进去,其中就能看到这个功能提供的两个回答模型能力选项。第一个名为「快速回答」,第二个就是由开源的 DeepSeek R1 驱动的「深度思考」模式。

    共有两个模型选项,其中第二个才是由 DeepSeek R1 驱动的版本 | 图片来源:极客公园

    值得一提的是,虽然本次为只有部分用户收到的灰度更新,但从推送范围以及收到的更新的用户分布广度来看,本次更新的推送速度相比近期微信的 Callkit 等同样经历过灰度的功能更新,推广速度要快许多。从最早的爆料出现,到首批收到推送的用户大规模出现,仅用了不到六个小时。彻底颠覆了过去数年微信功能更新给人「保守」的印象。

    本次更新并不绑定软件本身的版本号,因此无需你从 App Store 或其他应用商店更新微信版本,笔者自己则是在手动清除掉手机的微信后台、重新启动后,就发现了这个入口。

    换言之,如果你手机上的微信当前还没有收到这个更新,也不用太着急——你微信中的 DeepSeek R1 入口其实已经隐藏在代码之中,测试资格或许马上就到。

    从功能附带的开源与鸣谢声明能看出,微信中内置的 DeepSeek R1 基于开源版本构建而来,但其中并未明确提及其使用的模型体积,是否是 671B 的「满血」R1 版本。

    微信「AI 搜索」功能的开源声明页 | 图片来源:极客公园

    众所周知,包括公众号/视频号在内的微信内容生态长期以来一直是独立于各大搜索引擎的一个「孤岛」,这个情况在 ChatGPT4o 等联网语言模式问世之后也没有得到相关的改善,因此测试上微信内置的 R1,我最兴奋的就是它是不是终于可以,在微信内容平台的海洋中,使用大模型的能力自由翱翔了?

    很遗憾,在目前的实际的测试中,答案是否定的。

    例如,我尝试了将公众号的微信推文链接喂给它,它也无法检索微信平台中的相关信息,只能根据链接中相关的字段在微信公众平台之外的互联网上搜索相关的内容,甚至有些时候它都无法识别到这是一篇来自微信公众号文章的链接。

    当前版本的 AI 搜索,还不能识别微信内容的链接 | 图片来源:极客公园

    在其他涉及到微信公众号相关的问题中,虽然 AI 搜索能够依据文章搜索以及 R1 的推理能力给出相对准确的回复,但其内容的来源更接近微信公众号在其他平台分发得出的结果,而非对微信内容平台自身结果的引用。

    针对微信平台内容的回答,更多是基于互联网现有内容整合而来 | 图片来源:极客公园

    目前来看,微信内置的 R1 并未针对微信平台内的内容进行检索增强生成(RAG),对输出结果进行优化。

    这既是当前阶段内测版本微信 AI 搜索的明显短板,也是短期内微信整合 AI 功能显而易见的重要更新方向之一。

    总体体验来讲,目前的微信 AI 搜索体验也非常轻量级。不仅不支持连续对话,也不支持上传各种文件内容辅助提问与搜索,甚至在你退出聊天界面后,当前的对话记忆内容也会被直接销毁,不支持保留。

    作为「国民应用」的微信,在 DeepSeek R1 正式发布并开源的不到一个月时间内,就在应用内整合了入口,这无疑是一件让人振奋的事。

    之所以让人振奋,是因为微信在做的事,只有少数厂商能做到。

    在对话生成式模型拥有手机端 App 之后,抢占智能手机桌面的入口,已经是包括 ChatGPT、Perplexity 等很多 AI 应用在做的事情,通过设置其成为默认语音助理的方式,将「入口控制权」尽可能从手机品牌那里抢夺。

    但对于微信这样相对封闭的平台来讲,能依托微信现有的庞大中文内容生态,做并且能做好这件事的,目前看来似乎只有微信团队自己。

    从「极端保守」到如今成为了率先加入 DeepSeek 的聊天应用。这样的明显的改变,只有一种合理解释:微信团队认识到了 DeepSeek R1 所代表的推理模型在微信平台中应用的巨大潜力,并决定快速下场,来成为这场改变浪潮的主导者,确保微信的使用体验不落于其他竞争者。

    这已经不是微信团队第一次在 AI 大模型领域出手,微信输入法曾在去年六月加入「一键 AI 问答」功能,用于让用户在微信输入法内实现语言大模型的内容回答。

    但彼时这个功能是基于腾讯自家的混元 AI 大模型实现,并不能充当文本生成工具。

    微信输入法中现有的「问 AI」功能 | 图片来源:极客公园

    从体验上来讲,微信输入法适合各种聊天中的「灵光一现」问题,微信本体的 AI 搜索,有很大可能将会聚焦在微信现有内容生态内,借助用户聊天内容以及微信公众号等平台,深度挖掘其中的应用场景。

    这样的「分布式」的 AI 能力体验,倒是与 Apple Intelligence 的产品思路有异曲同工之妙:在去年苹果发布的 Apple Intelligence 能力中,苹果并没有颠覆性的拿出另一个能力震惊世界的模型,而是选择借助 ChatGPT 这样现有的模型,将模型能力嵌入在包括笔记、照片以及输入法等手机生态的各个角落。

    苹果 Apple Intelligence「散落」在各个应用中的 AI 能力 | 图片来源:极客公园

    表面上,Apple Intelligence 似乎不如同期 Google、OPPO 这样同样在发力手机 AI 应用的厂商来的更加聪慧,但苹果实际上在做的,却让 AI 尽可能「悄无声息」地加入用户生活,并借助能力给用户更多的使用场景带来改变。

    从这一点上来看,虽然没有手机操作系统的腾讯,在移动互联网时代错失了最重要的入口之一,但微信作为如今重要的沟通平台,却成为了「让 AI 真正普及」过程中不可或缺的重要一环。

    在中国,上至百岁老人、下至刚刚学会用智能手机的孩童,都已经对微信有了最基础的使用概念,这些功能中,同样也是最适合 AI 能力去进一步做「润滑」、降低 AI 学习成本的关键所在。

    对于已经走过爆发点的生成式 AI 来讲,如今通过探索 AI 应用的普及,从而让 AI 能力在更多用户的长期使用中「产生质变」,才是微信 AI 真正值得我们期待的未来。

    甚至当下我们就已经可以下定论:微信中的 AI 能力,或许不会是最让人兴奋的那个,但它却有最大的机会真正去「改变世界」。

  • 用400块装的电脑跑通了DeepSeek!你感相信吗???

    用400块装的电脑跑通了DeepSeek!你感相信吗???

    DeepSeek最大价值是让AI普惠。

    在我看来,2025年绝对能称得上是中文大模型的颠覆之年。

    DeepSeek的横空出世,不仅打破了英伟达主导的“算力决定一切”的刻板印象,也打破了美国在大模型领域的长期主导地位,甚至一度挑起了全球大模型领域的价格战,让更多的人能够体验到大模型带来的乐趣。

    至少从抖音、快手上的反应来看,对普罗大众而言,DeepSeek的出现确实把“人工智能”这样一个遥不可及的概念带到了人们身边。

    哪怕是我这个浸淫大模型两年半的雷科技练习生,在过年期间不仅没少给身边的父母亲戚介绍这DeepSeek到底是什么,自己也是时不时就拿起手机来玩一下,没办法,能在不要钱的基础上提供这种问答质量的中文大模型,目前也就DeepSeek能做到了。

    要说有什么问题嘛,还得是这服务器的问题了。

    特别是我这边发出请求,然后看着DeepSeek在那里转个半天,最终却只能憋出个“服务器繁忙,请稍后再试”的时候,那种挫败感是真的难受,让人迫切想要在本地部署一个属于自己的DeepSeek推理模型。

    问题就出在成本上,按照常理来说,想要购入一台能在本地运行大模型的设备,那要不就是售价在5000元以上的AI PC笔记本,要不就得自己着手去装配一台搭载独立显卡的整机,不管哪个选择对普通消费者来说都不够友好。

    不过将预算压缩到极致,然后搭配出一套「能用」的主机,正是每一位DIY玩家的终极乐趣,而这给我带来的挑战就是,如果真的想弄一台可以本地运行DeepSeek模型的电脑,到底需要多少钱?

    我的答案是,400元。 

    尽管近期正经的内存和硬盘有价格上涨的趋势,但是在洋垃圾这边其实价格变化倒是不大,甚至一批早年的洋垃圾CPU和矿卡GPU还有价格下跌的趋势。在如今大模型潮流席卷而来的背景下,我甚至不准备拘泥于办公影音需求,决定挑战一下用四百块钱的预算,试着去打造出一套性价比颇高的入门级本地大模型主机。

    至于具体应该怎么操作,最终成效是否如意,跟着我一起看下去自然就知道了。

    越陈越香的洋垃圾

    既然说了要在400块内搞定,那么如何在尽量低的价钱内完成整机的装配就变得至关重要了。

    在CPU的选择上,我直接从PDD上捡了一颗Intel® Core™i3-4170,售价22元。

    该处理器为二核四线程,3.7GHz主频,没有睿频能力,具备3MB智能缓存,采用22nm制程工艺的Haswell架构,而它最大的特点就是拥有一颗HD4400核显,这也是我选择它的关键。

    (图源:PDD)

    俗话说得好,低价U配低价板嘛。

    所以主板的话,我就选择购入了一块铭瑄MS-H81M Turbo,只有两根DDR3内存插槽不说,甚至都没有HDMI输出接口,也没有M2硬盘位,USB 3.0、SATA III接口都只有两个,但是它在PDD上面只要79块钱。

    这加起来仅需100左右的板U套装,性价比放在今时今日也是出类拔萃的。

    (图源:雷科技)

    这种CPU,散热就不用太担心了。

    PDD上面14.9包邮寄过来的双热管风冷散热器,虽然外观上是丑了一点,简陋了一点,但是用来压我这一套超低价配置肯定是绰绰有余了。

    (图源:雷科技)

    至于显卡嘛,近期闲鱼上面流出了一大堆P106-090和P106-100矿卡,其中前者的价格普遍在70块钱左右,后者的价格普遍在120-140块钱左右。

    两者之间最大的差别在显存上,P106-090仅有3GB显存,而P106-100则有6GB显存,尽管我这次的初衷并不是为了游戏而来,但是更高的显存规格确实可以运行更高效的本地大模型,所以我最终还是拿下了一张技嘉的P106-100,售价130元。

    (图源:雷科技)

    最后,给它简单配上两根杂牌DDR3内存,组成内存双通道,用一个300W长城电源供电,一块120GB SATA SSD做系统盘,用上次装机剩下来的大水牛硅脂凑合凑合,最后再配上个20块钱的电脑城小机箱…

    完成!请欣赏一下我用四百元装机的成果吧。

    (图源:雷科技)

    然后是我给出的参考价格表,感兴趣的大伙也可以试着照这张表格上的配置自己配一下,总之价格上不会差太多。

    你要是更追求性价比的话,甚至把机箱换鞋盒也不是什么大问题。

    (图源:雷科技)

    装机完成,点亮主机!

    先做个简单的性能测试,作为多年服役的老将,Intel® Core™i3-4170的性能也就那样,即便是在用TrottlesStop解锁功耗的情况下,也就差不多相当于移动端酷睿六代、酷睿七代处理器的水平。

    (图源:雷科技)

    在实测环节中,CPU-Z测试单核跑分有373.4分,多核跑分有1025.2分,在CINEBENCH测试标准下,CINEBENCH R20多核824cb、单核346cb,CINEBENCH R23多核1914cb、单核905cb。

    亮眼肯定是不够亮眼,但是拿来日常办公、轻度娱乐倒是够了。

    (图源:雷科技)

    再看看GPU部分,我手上这张技嘉P106-100采用16nm工艺打造,显卡核心为GP106,核心频率为1506MHz,可提升到1709MHz,具有1280个着色单元,支持DirectX12,显存规格为6144MB/192Bit GDDR5内存,显存频率可达2002MHz。

    在测评DX11性能的Fire Strike测试中,P106-100在Extreme测试中取得了6490分的图形分数;在测评DX12性能的TimeSpy测试中,P106-100在基本测试中取得了4428分的图形分数。

    (图源:雷科技)

    这个性能表现和GTX1060差不多,甚至能和移动端RTX 3050碰一碰了。

    存储方面,我们斥资40元购入的这块杂牌128GB SATA SSD硬盘,顺序读写速度达到505.24MB/s和369.63MB/s,随机4K读写达到132.06MB/s和246.55MB/s,虽然和M2 SSD硬盘没得比,但是作为系统启动盘肯定是绰绰有余了。

    (图源:雷科技)

    至于这对双通道的DDR3内存,使用AIDA64进行内存缓存测试,测得的读取速度为18557MB/s,写入速度为19889MB/s,复制速度为17914MB/s,延迟为67.2ns,给这台电脑用可以说是刚刚好。

    (图源:雷科技)

    百元机,用上DeepSeek

    既然目的是在几百块钱的预算下,打造出一套可用的本地DeepSeek主机,那么体验肯定是我们最关注的一环。

    首先,要说真正的DeepSeek-R1,那便只有一个版本,即671B的原始版本,其中包含大量的参数,推理精度确实高,但需要大量计算资源,而且显存至少为1342GB。

    (图源:HuggingFace)

    这显然是P106-100承受不起的,也没有哪张消费级显卡能承担得起就是了,官方推荐的方法是用16张NVDIA-A100 80GB显卡,或者是组成Mac电脑集群,用高速度的统一内存去跑。

    像我们这种消费级显卡,就只能用“蒸馏模型”

    所谓蒸馏模型,可以看成“老师教学生”,通过知识蒸馏,教更精简的模型学会复制较大模型的行为,扩充性能,减少资源需求,而用DeepSeek-R1蒸馏的话,主要就是给这些模型加入“深度推理”的概念。

    再降低一下模型精度,就能看到我们能够部署的蒸馏模型。

    (图源:HuggingFace)

    然后根据Unsloth提供的报告,DeepSeek-R1-Distil-Qwen-7B是符合需求的蒸馏模型中表现最出色的,各方面测试成绩均超越了理论参数更多的DeepSeek-R1-Distil-Llama-8B。

    那么我们今天要部署的,自然就是DeepSeek-R1-Distil-Qwen-7B

    目前想在PC本地部署DeepSeek有两种办法,其中最常见的应该是Ollama+Chatbox AI的组合。

    所谓Ollama,其实就是一款比较流行的本地大模型服务端工具,部署起来也很简单,只要在Ollama官网搜索DeepSeek-r1,下面就会有不同大小的蒸馏模型渲染,然后搭配客户端启动就行了。

    (图源:Ollama)

    安装后,Ollama一般就在本地的11434端口开启服务了,但此时你只能在终端中进行交互,但是要获得像DeepSeek官网一样的体验,还是需要额外的前端客户端才行。

    而Chatbox AI,就是最常见的一款前端产品。

    不同于服务端的纯文字内容展示,Chatbox AI将大部分设置、功能进行了图形化,使用户的体验更加直观,而且这款产品支持众多本地AI模型和API接口,自然也可以使用本地Ollama 11434端口的服务。

    接入之后,大概就是这个样子。

    (图源:雷科技)

    你可以在Chatbox AI定义自己想要交互的模型人设,

    但要论角色扮演的话,第二种部署方法或许会更适合一点。

    为你介绍Koblodcpp,这是一款整合Koblod.AI界面的llamacpp启动程序,可以运行目前外网流行的GGUF格式本地大模型,甚至可以整合语音大模型和绘图大模型,实现在对话的同时,生成语音和对应场景的效果。

    只要在HF-Mirror下载对应的大模型,然后就能用Koblodcpp启动了。

    (图源:雷科技)

    使用Koblodcpp,你就可以加载通用格式的角色卡,实现和各种不同的角色对话交流的独特体验。

    如果这还不够,你还能够借助Koblodcpp的端口部署SillyTarven,后者是目前全网公认的最好用的大模型角色扮演前端,能够帮助用户实现对话逻辑的定义,对用户自身人设的定义,加载补充世界观的Lorebook和载入图片、动图以及互动代码来完善角色扮演体验。

    甚至…可以让DeepSeek实现破限,做到一些云端大模型做不到的事情。

    简单介绍完部署方法后,接下来就该进入实测环节了。

    用一些常规问题和它进行交互,就能看到详细的推理过程,应付一些正经的初高中语文、数学、英语问题,本地部署的DeepSeek体验起来还是不错的。

    (图源:雷科技)

    询问一些关公战秦琼的问题,文学创作能力看起来也不赖。

    (图源:雷科技)

    不过在比较复杂的数学、逻辑难题里,本地部署的DeepSeek表现就比较一般了,有不少逻辑推理题甚至会出现算不出答案的情况。

    (图源:雷科技)

    因为没有联网的缘故,目前本地部署的DeepSeek模型的知识库是截至2023年的,没有比较新鲜的素材,因此一些有时效性的问题自然无法作答。

    (图源:雷科技)

    至于速度的话,在限制回复长度为1024代币的情况下,应付一道高中数学题的思考过程为127s(即两分钟)左右,这个速度和原版DeepSeek之间差别不大,深度思考的特性让本地和云端的体验大大拉近。

    (图源:雷科技)

    当然了,因为思考太长的原因,本地部署的DeepSeek确实就不大适合聊天用了,喜欢聊天的建议更换Casuallm大模型进行体验。

    总结:低配置也能跑,但稳定性欠佳

    优点:

    1、成本预算低廉;

    2、确实能运行本地大模型。

    缺点:

    1、二手零部件无保障;

    2、矿卡驱动非常容易掉,白屏问题时有发生。

    论性能,这款预算不到400元的电脑主机其实还不错。

    尽管CPU规格老旧、矿卡表现不稳定,但是这台廉价主机确实能完成DeepSeek本地大模型的部署,在组装完成后的这段时间里,它一度成为公司局域网内部的AI终端,还可以部署本地AI绘图等一系列能力,算是实至名归的AI PC。

    虽然没有具体测试,但是近4500分的TimeSpy图形分,即便是《孤岛惊魂6》这样的3A大作,这款机子也能在FHD低画质下保证60帧稳定运行,应付《英雄联盟》这类网游应该是绰绰有余的,也可以当一台入门的游戏主机来用。

    说是这么说,问题当然还是有的。

    先说这台机子,为了搞好这台机子我也是前后折腾了半天。P106-100这张矿卡多次出现掉驱动导致电脑白屏,需要用DDDU卸载驱动再重装的情况,至于那个二手电源后面直接瘫痪了,还得去PDD上面扯皮商家才肯换货。

    目前闲鱼上面还有不少和我组装起来的这台机子配置类似的洋垃圾整机,售价普遍在350-400元左右,目标受众很明显是刚上大学或者走出社会的年轻群体,个人建议大伙别去购买这些产品,一分钱一分货可不是开玩笑的。

    再说说DeepSeek,目前市面上所有的本地DeepSeek部署教程,包括我们在内,实际上部署的都是经过DeepSeek蒸馏的通义千问模型,回答一些基础问题,简单测试深度思考还行,复杂一点的逻辑思考能力,这本地部署的版本和全参数的版本之间的差别可不是一星半点。

    只能说,真要想追求不卡的全参数DeepSeek体验,整个API接口可能是更加合理的方法。

  • deepseek本地部署最简教程3-搭建个人AI知识库

    deepseek本地部署最简教程3-搭建个人AI知识库

    1 简介
    在上一篇推送中(deepseek本地部署最简教程),我们介绍了基于Ollama的本地部署。尽管本地化部署的DeepSeek模型在算力规模和功能完备性上无法媲美云端全量版本,但只要喂给它「独家秘方」——也就是你电脑里的文档、代码、笔记这些干货,它立马就能变身成你的专属知识小助手!

    2 准备
    自己从头搭建个人知识库就像手工造汽车——理论可行但太费劲。这里推荐一个「懒人神器」:AnythingLLM。它能帮你把电脑里的文档(PDF/Word/代码文件都行)变成会聊天的知识库,操作就像把文件拖进文件夹一样简单!

    用这个工具你可以:

    ✅ 随时提问:比如“上周写的Verilog代码在哪?”直接对话就能找到;写RTL代码卡壳时,它能秒查你去年写的相似案例;面对几十份会议纪要,直接问它就能提取关键结论。

    ✅ 保护隐私:所有资料都存在自己电脑里,不怕泄露

    ✅ 跨格式支持:无论是技术文档、会议记录还是代码片段都能处理

    整个过程只需要三步:

    把文件拖进软件

    等它自动分析(喝杯咖啡的时间)

    开始用自然语言提问

    相当于给你的电脑配了个24小时待命的资料管家,特别适合经常需要查旧文档的技术人员!

    3 下载AnythingLLM
    以下是下载链接:

    https://anythingllm.com/desktop

    使用管理员模式安装

    4 配置
    先确保ollama是开启状态,然后搜索ollama

    选择deepseek模型
    在 AnythingLLM 的本地部署配置中,MAX Token(最大令牌数) 是一个关键参数,主要用于控制语言模型(LLM)处理文本时的输入和输出长度限制。
    语言模型(如 GPT)单次处理的文本长度受硬件和算法限制。MAX Token 决定了模型单次请求能处理的 输入+输出 的 Token 总数上限。超过此值会导致截断或报错。
    Token 并非严格等于单词或汉字。例如,英文中 1 Token ≈ 4 字符,中文中 1 汉字 ≈ 2-3 Token
    在问答或生成场景中,该参数直接影响 AI 生成回答的最大长度。例如设置为 512,则回答内容会被限制在约 512 个 Token(约 380 个汉字或 700 英文单词)。

    点击下一步

    填写自己的邮箱

    填写工作区名称

    设置中文

    上传文档


    将文档放到工作区

    保存

    更新中

    更新成功

    5 测试结果
    可以看到deepseek可以理解文档中的内容

    6 写在最后
    当然,AnythingLLM还具备其他功能,如代码托管和官方API的接入等,受篇幅所限,本文不再展开论述,各位可自行探索。需要注意的是,本地部署的AI回答精准度仍然受到硬件性能的制约。建议开发者参考以下硬件选型策略,轻量级部署:RTX 3060(12GB)+32GB DDR4+1TB SSD(支持7B参数模型实时推理);企业级方案:A100 80GB*4+NVLink+Optane持久内存(满足千亿级Token知识库毫秒响应)。

  • deepseek本地部署最简教程2-(GUI,图形用户界面)

    deepseek本地部署最简教程2-(GUI,图形用户界面)

    1 简介
    在上一篇推送中(deepseek本地部署最简教程),我们介绍了基于Ollama的本地部署。然而,目前我们的对话仍需通过CMD进行操作,这在便捷性上有待提升。本期内容将采用GUI方式调用Ollama API,并实现完整的GUI对话功能。
    2 为什么选择ollama
    先回答之前读者的问题,为什么选择ollama而不是lm studio,对于不同需求的用户,可自行选择:

    非技术用户/快速验证:无脑选LM Studio

    开发者/需自定义模型:选Ollama,虽然初期配置复杂,但后续可扩展性强(支持API、Docker等)

    3 安装chatbox
    Chatbox AI 是一款桌面客户端应用,旨在为用户提供更便捷、高效的方式与 AI 交互。以下是下载链接:
    https://chatboxai.app/

    4 配置环境变量
    OLLAMA_HOST 和 OLLAMA_ORIGINS 是 Ollama 的配置环境变量,用于配置 Ollama 与其 API 服务器之间的通信。

    OLLAMA_HOST,用于指定 Ollama 服务监听的主机地址和端口。默认情况下,Ollama 会绑定到 127.0.0.1:11434(仅本地访问)。通过修改此变量,可以实现以下场景:
    允许其他设备通过局域网访问 Ollama。
    在 Docker 容器或云服务器中运行时,开放对外访问。
    我们可以配置为0.0.0.0, 表示开放到所有IP,允许所有网络接口访问

    OLLAMA_HOST=0.0.0.0:11434

    OLLAMA_ORIGINS,用于控制 Ollama API 的跨域请求来源(CORS)。默认情况下,Ollama 仅允许同源请求(即与 API 同域名/端口)。若需要从其他域名或端口调用 API(例如通过自定义 Web 前端),需通过此变量指定允许的来源。

    # 示例:允许特定域名或端口OLLAMA_ORIGINS=http://localhost:3000,https://example.com

    我们可以配置为*, 表示允许所有来源

    OLLAMA_ORIGINS=*

    至于windows如何配置用户环境变量,可自行百度或bing搜索


    5 配置ChatBox
    打开ChatBox,选择模型提供方OLLAMA API,选择对应的模型deepseek r1


    6 测试
    如果我们之前打开过ollama,需要先关掉(一般在右下角图标中)

    然后,打开cmd运行以下命令,启动ollama服务:

    ollama serve

    之后,我们就可以使用gui来进行对话了


    7 写在最后
    无论是DeepSeek,还是ChatGPT,作为先进的生产工具,如果能够合理有效地运用,都能对我们的工作和学习产生极大的帮助。它们不仅能够提升工作效率,减少重复性劳动,还能够帮助我们更好地解决问题、拓宽思维和提高创新能力。特别是在快速变化的时代,掌握和利用这些工具,不仅能让我们在专业领域中保持竞争力,也能为个人成长和知识积累提供强有力的支持。
    但需强调的是,真正的价值创造仍需以人类的专业判断力为前提——保持批判性思维,善用提示词工程精准表达需求,将AI输出与专业知识体系深度融合,方能实现从工具应用到认知升级的质变。