作者: sodudu

  • 谷歌AI掌门人Jeff Dean对话Transformer作者:AI提速300%,1000万倍工程师要来了

    谷歌AI掌门人Jeff Dean对话Transformer作者:AI提速300%,1000万倍工程师要来了

    如果没有「Attention Is All You Need」这篇论文,今天的AI会是什么样子?

    Jeff Dean,谷歌的首席科学家,和Transformer的作者Noam Shazeer,最近在一场深度访谈中,不仅回顾了AI发展的关键时刻,还大胆预测了未来的方向。

    他们揭秘了模型蒸馏、MoE架构的内幕,甚至讨论了如何让AI模型处理整个互联网的信息!

    访谈内容十分丰富,看点十足。

    低精度让模型快三倍

    「最近,我感觉基于通用CPU的机器扩展性不如以前了。」Jeff说。

    他表示,制造工艺的改进现在需要三年时间,而不是以前的两年。多核处理器等架构改进也没有给我们带来20到10年前那么大的提升。

    但是,同时我们看到了越来越多的专用计算设备,比如机器学习加速器、TPU,以及最近的专注于机器学习的GPU,它们让我们能够在现代计算中获得非常高的性能和良好的效率,这些计算与传统的C++代码,比如运行Microsoft Office这类任务的计算大不相同。

    可以说,算法正在跟随硬件的发展。Noam表示,现如今算术运算非常便宜,而数据传输的成本则相对还较高。

    正是因为这一点,深度学习才得以迅速发展。「你可以通过矩阵乘法来构建深度学习,这实际上是N立方次的运算和N平方字节的数据传输。」Noam说。

    对此,Jeff表示认同。他说,「我认为,向硬件转向的这一重要变化非常关键,因为在那之前,CPU和GPU并不特别适合深度学习。」

    后来,谷歌开始打造TPU,这些TPU其实是低精度线性代数处理器,一旦有了这样的硬件,就需要充分利用它。

    就像拉里·佩奇曾说的:「我们的第二大成本是税收,最大成本是机会成本。」在这种情况下,把这些算术单元填满!可以让算术运算的数量增加几个数量级。

    然后,接下来要改变的是什么?算法、数据流,等等。Jeff继续说道,「哦,对了,算术运算的精度可以非常低,这样你就可以在芯片上放更多的乘法单元。」

    「我认为一个普遍的趋势是,我们在量化或拥有更低精度模型方面变得越来越好。」Jeff说到。

    从TPUv1开始,当时他们甚至不确定能否使用8位整数进行量化并进行模型推理。但有一些早期证据显示这可能是可行的,于是他们就决定围绕这一点构建整个芯片。

    随着时间的推移,大家已经能够在训练中使用更低精度了。而且推理的精度也降低了。现在人们使用INT4或者FP4。

    「如果20年前你告诉一个超级计算浮点数专家,我们要使用FP4,他一定会觉得那太疯狂了。」Jeff说,他们喜欢64位的浮点数。

    Jeff说到,「一些人正在将模型量化到2位或1位,我认为这是一个明显的趋势。是的,量化确实有点烦人,但你的模型会快三倍,所以你得接受它。」

    扩展神经网络确实有效

    当Jeff被问到有没有在研究某个领域时,突然有了想法,并且有种「天啊,简直不敢相信这竟然成功了」的感觉时。Jeff回忆起在Brain团队早期的时候。

    那个时候,他们专注于「看看能否构建一些基础设施,让我们能够训练非常非常大的神经网络」。

    当时,他们的数据中心没有GPU,只有CPU。但是他们知道如何让大量的CPU一起工作。所以构建了一个系统,能够通过模型并行和数据并行的方式训练相当大的神经网络。

    「我们有一个针对 1000 万个随机选择的 YouTube 帧进行无监督学习的系统。」Jeff表示,它采用了一种空间局部表示的方法,因此它会基于尝试从高层表示中重构事物来构建无监督表示。他们让这个系统在2000台计算机上运行,使用了16000个核心进行训练。

    不久之后,该模型实际上能够在最高层构建一个表示,其中一个神经元会被猫的图像所激发。

    「它从未被告知什么是猫,但它在训练数据中看到了足够多的猫的正面面部视图,因此这个神经元会对这些图像产生反应,而对其他东西则不太敏感。」Jeff说,类似的,你还会看到其他神经元对人脸、行人的背影等产生反应。

    「这个过程非常酷,因为它是基于无监督学习原理,构建出这些非常高层次的表示。」

    随后,他们在监督学习的ImageNet 20000类别挑战中获得了非常好的结果,相对于之前的技术,提升了60%的性能,这在当时是非常不错的。

    这种神经网络可能比之前训练过的神经网络大了50倍,并且得到了很好的结果。

    所以这让Jeff有了一种感觉,「嘿,实际上,扩展神经网络似乎是个不错的主意,看来确实有效,我们应该继续推动这一方向。」他说。

    想办法处理数万亿token

    谈到长上下文问题时,Jeff表示,「我们还没有完全做到,但我确实看到了在未来可实现的目标。」

    Jeff表示,他已经思考这个问题一段时间了。

    你看到这些模型的一个特点是它们相当不错,但它们有时会产生幻觉并且存在事实性问题。部分原因是你在数万亿的token上进行了训练,并将所有这些都混合在数百亿甚至数千亿的参数中。

    在上下文窗口中,也就是模型的输入中,信息是非常清晰明确的,因为我们在Transformer中有一个非常好的注意力机制。模型可以关注事物,并且它知道它正在处理的确切文本、视频的确切帧、音频或其他任何内容。

    目前,我们有能够处理数百万token上下文的模型,这已经相当多了。Jeff表示。「这相当于数百页的 PDF、50 篇研究论文、数小时的视频、数十小时的音频,或者这些内容的某种组合,这非常酷。」

    但是,如果模型能够处理数万亿的token,那就太好了。它能否关注整个互联网并为你找到正确的内容?它能否为你处理所有个人信息?

    「我很希望有一个模型可以访问我的所有电子邮件、所有文档和所有照片。当我要求它做某事时,它可以在我的许可下利用这些信息来帮助解决我想让它做的事情。」Jeff说。

    但这将是一个巨大的计算挑战,因为朴素的注意力算法是二次方的。你几乎无法在相当多的硬件上让它处理数百万的token,更不用说让它直接处理数万亿的token了,这是不可能的。

    因此,需要大量有趣的算法近似来实现的:一种让模型在概念上能够处理更多、更多的token,数万亿token的方法。

    也许可以将所有Google代码库放入每个Google开发者的上下文中,将世界上所有的开源代码放入任何开源开发者的上下文中。

    那将是惊人的。

    一百万个「邪恶的」Jeff

    访谈中,主持人提出了一个极具挑战性和前瞻性的问题,将讨论引向了AI安全性的深层领域:如果AI系统偏离了预设目标,转而优化一些未知的、甚至可能有害的目标函数,将会产生怎样的后果?

    主持人进一步设想了一个场景:假设一个AI获得了与Jeff或Noam相当、甚至超越他们的编程能力。

    在这种情况下,如果该系统被恶意复制或自我复制,产生了数百万个具有顶级编程水平的「副本」,那么这种失控的局面将可能导致难以挽回的后果。

    这一假设情景触及了当前AI安全研究的核心关切——目目标对齐(Goal Alignment)问题。即如何确保AI系统的目标与人类的价值观和预期目标保持一致,避免出现意外或有害的行为。

    对此,业界存在两种极端的观点:灾难论(Catastrophism),认为AI系统在各方面都将远超人类,最终可能导致人类被AI压制或取代。乐观论(Optimism), 认为AI系统将带来巨大的福祉,无需过分担忧其潜在风险。

    对此,Jeff表示,他的立场介于这两种极端观点之间。他虽然对AI的潜在风险保持警惕,但并未表现出极度的担忧。

    这种审慎乐观的态度,反映了当前AI领域许多专家对AI安全问题的主流看法:既要重视潜在风险,积极开展安全研究,也要对AI的未来发展保持信心。

    1000万倍工程师

    在访谈中,两位专家深入探讨了AI发展所面临的关键挑战与巨大机遇。

    Jeff预测,随着AI聊天界面等应用的普及,计算资源需求将面临爆炸性增长。他指出:「目前可能只有10%到20%的计算机用户了解并使用这类交互式界面,但随着用户认知和应用场景的拓展,未来使用量可能增加一到两个数量级。」

    这对底层基础设施和算力提出了严峻挑战。

    AI技术的快速发展也伴随着潜在风险。Jeff Dean强调:「我们需要警惕AI可能被用于生成虚假信息、实施自动化网络攻击等恶意行为。因此,在模型设计中必须尽可能内置防护和缓解措施,以确保AI的安全可控。」

    Noam认为,AI领域并非零和博弈,其发展将带来广泛的社会效益。他乐观地预测:「当前AI的发展态势预示着未来在GDP、医疗健康、财富创造等多个领域将实现数个数量级的增长。」这表明AI有潜力成为推动社会进步的重要引擎。

    接着,Jeff提出了一个引人深思的问题:如果每增加一倍的计算资源投入,就能使AI助手的能力提升5到10个点,那么企业是否愿意为实现「10倍工程师」、「100倍工程师」甚至「1000万倍工程师」的生产力跃升而加大投入?

    这一设问揭示了AI在提升生产力方面的巨大潜力,可能引发新一轮的技术革命和产业变革。

    结语

    Jeff Dean和Noam Shazeer的对话,让我们看到了AI技术发展的无限可能。

    从让模型快三倍的低精度计算,到处理数万亿token的长上下文挑战,再到对AI安全性的深刻思考,这场访谈为我们描绘了一个激动人心的未来。

    正如Jeff所说,他并不完全担心AI的「邪恶」版本,但我们仍需在技术发展的同时,保持对潜在风险的警惕。

    参考资料:

    https://www.youtube.com/watch?v=v0gjI__RyCY

    来源:微信公众号“新智元”

  • 一文看懂 DeepSeek 刚刚开源的 FlashMLA,这些细节值得注意

    一文看懂 DeepSeek 刚刚开源的 FlashMLA,这些细节值得注意

    今天开始,我们正式进入 DeepSeek 开源周。

    DeepSeek 开源项目第一弹 FlashMLA,已经在极短的时间内发酵到全网了,短短几个小时,该项目就已经收获了超过 3.5K Star,且还在不断飙升。

    虽然 FlashMLA 里的每个字母都认识,连在一起就看不懂了。别急,我们整理了一份 FlashMLA 速通指南。

    由 Grok 3 整理,APPSO 核实

    让 H800 性能暴增,FlashMLA 到底什么来头? 

    据官方介绍,FlashMLA 是一个针对 Hopper GPU 优化的高效 MLA(Multi-Head Latent Attention)解码内核,支持变长序列处理,现在已经投入生产使用。

    FlashMLA 通过优化 MLA 解码和分页 KV 缓存,能够提高 LLM(大语言模型)推理效率,尤其是在 H100 / H800 这样的高端 GPU 上发挥出极致性能。

    说人话就是,FlashMLA 是一种专门为 Hopper 高性能 AI 芯片设计的先进技术——一种「多层注意力解码内核」。

    听起来很复杂,但简单来说,它就像是一个超级高效的「翻译器」,能让计算机更快地处理语言信息。 它能让计算机处理各种长度的语言信息,而且速度特别快。

    比如,你在用聊天机器人的时候,它能让你的对话更快地得到回复,而且不会卡顿。 为了提高效率,它主要通过优化一些复杂的计算过程。 这就像是给计算机的「大脑」做了一个升级,让它在处理语言任务时更聪明、更高效。

    DeepSeek 官方特意提到,FlashMLA 的灵感来自 FlashAttention 2&3 和 cutlass 项目。

    FlashAttention 是一种高效的注意力计算方法,专门针对 Transformer 模型(如 GPT、BERT)的自注意力机制进行优化。它的核心目标是减少显存占用并加速计算。cutlass 也是一个优化工具,主要帮助提高计算效率。

    DeepSeek 的爆火出圈很大程度上是因为以低成本创造了高性能模型。

    而这背后的秘籍主要得益于其在模型架构和训练技术上的创新,尤其是混合专家(MoE)和多头潜在注意力(MLA)技术的应用。

    FlashMLA 则是 DeepSeek 公司开发的一种针对多头潜在注意力(MLA)技术的实现和优化版本。 那么问题来了,什么是  MLA( 多头潜在注意力)机制?

    在传统的语言模型里,有一种叫「多头注意力(MHA)」的技术。 它能让计算机更好地理解语言,就像人用眼睛同时关注多个地方一样。

    不过,这种技术有个缺点,就是需要很大的内存来存储信息,就像一个很能装的「仓库」,但仓库太大就会浪费空间。

    MLA 的升级之处在于一种叫「低秩分解」的方法。

    它把那个大仓库压缩成一个小仓库,但功能还是一样好,就像把一个大冰箱换成一个小冰箱,但里面的东西还是能放得下。这样一来,在处理语言任务的时候,不仅节省了空间,速度还更快了。

    不过,虽然 MLA 把仓库压缩了,但它的工作效果和原来一样好,没有打折扣。

    当然,除了 MLA 和 MoE,DeepSeek 还用了其他一些技术来大幅降低了训练和推理成本,包括但不限于低精度训练、无辅助损失的负载均衡策略以及多 Token 预测(MTP)。

    性能数据表明,FlashMLA 在内存和计算限制下的表现远超传统方法,这得益于其线性复杂度的设计和针对 Hopper GPU 的优化。

    与标准多头注意力的对比,更是进一步凸显 FlashMLA 的优势:

    FlashMLA 的主要应用场景包括:

    • 长序列处理:适合处理数千个标记的文本,如文档分析或长对话。
    • 实时应用:如聊天机器人、虚拟助手和实时翻译系统,降低延迟。
    • 资源效率:减少内存和计算需求,便于在边缘设备上部署。

    目前 AI 训练或推理主要依赖英伟达 H100 / H800,但软件生态还在完善。

    由于 FlashMLA 的开源,未来它可以被集成到 vLLM(高效 LLM 推理框架)、Hugging Face Transformers 或 Llama.cpp(轻量级 LLM 推理) 生态中,从而有望让开源大语言模型(如 LLaMA、Mistral、Falcon)运行得更高效。

    同样的资源,能干更多的活,还省钱。

    因为 FlashMLA 拥有更高的计算效率(580 TFLOPS)和更好的内存带宽优化(3000 GB/s),同样的 GPU 资源就可以处理更多请求,从而降低单位推理成本。

    对于 AI 公司或者云计算服务商来说,使用 FlashMLA 也就意味着更低的成本、更快的推理,让更多 AI 公司、学术机构、企业用户直接受益,提高 GPU 资源的利用率。

    此外,研究人员和开发者还可以基于 FlashMLA 做进一步的优化。

    过去,这些高效 AI 推理优化技术通常主要掌握在 OpenAI、英伟达等巨头手里,但现在,随着 FlashMLA 的开源,小型 AI 公司或者独立开发者也能用上, 更多人进入 AI 领域创业,自然也就有望催生更多的 AI 创业项目。

    简言之,如果你是 AI 从业者或者开发者,最近在用 H100 / H800 训练或推理 LLM,那么 FlashMLA 可能会是一个值得关注或研究的项目。

    与春节期间网友扒出 DeepSeek V3 论文具体提到了 PTX 的细节相似,X 网友发现 DeepSeek 发布的 FlashMLA 项目中同样包含了一行内联 PTX 代码。

    PTX 是 CUDA 平台的中间指令集架构,处于高级 GPU 编程语言和低级机器代码之间,通常被视为英伟达的技术护城河之一。

    通过内联 PTX,这使得开发者能够更精细地控制 GPU 的执行流程,从而可能实现更高效的计算性能。

    此外,直接利用英伟达 GPU 的底层功能,而不必完全依赖于 CUDA,也有利于降低英伟达在 GPU 编程领域的技术壁垒优势。

    换句话说,这或许也意味着 DeepSeek 可能在有意绕开英伟达封闭的生态。

    当然,如无意外,根据外媒的爆料,本周接下来预计还有 GPT-4.5、Claude 4 等模型的发布,去年年底没能看到的 AI 大战或将在本周上演。

    看热闹不嫌事大,打起来,打起来。

    官方部署指南 

    FlashMLA 是一种高效的 MLA 解码内核,专为 Hopper GPU 优化,可用于处理变长序列推理。

    当前已发布版本支持:

    • BF16
    • 分页 KV 缓存,块大小为 64

    在 H800 SXM5 上运行 CUDA 12.6,FlashMLA 在受内存带宽限制的配置下可达 3000 GB/s,在受计算能力限制的配置下可达 580 TFLOPS。

    项目配备:

    • Hopper GPU
    • CUDA 12.3 及以上版本
    • PyTorch 2.0 及以上版本

    附上 GitHub 项目地址:https://github.com/deepseek-ai/FlashMLA

    安装

    python setup.py install

    基准

    python tests/test_flash_mla.py

    python tests/test_flash_mla.py 是一个命令行指令,用于运行 Python 测试文件 test_flash_mla.py,通常用于测试 flash_mla 相关的功能或模块。

    用法

    from flash_mla import get_mla_metadata, flash_mla_with_kvcache

    tile_scheduler_metadata, num_splits = get_mla_metadata(cache_seqlens, s_q * h_q // h_kv, h_kv)

    for i in range(num_layers):

    o_i, lse_i = flash_mla_with_kvcache(

    q_i, kvcache_i, block_table, cache_seqlens, dv,

    tile_scheduler_metadata, num_splits, causal=True,

    )   …

    来源:微信公众号“APPSO”

  • DeepSeek爆火一个月:腾讯元宝猛砸买量,kimi暴跌、豆包下滑

    DeepSeek爆火一个月:腾讯元宝猛砸买量,kimi暴跌、豆包下滑

    DeepSeek爆火至今1个月的时间里,整个AI圈子发生了极大变化,各家APP接入DeepSeek、版本更迭、砸钱买量,拥抱与竞争成为2025年初AI圈的主旋律。

    其中,近期最受瞩目的当属腾讯元宝、字节豆包以及Kimi。那么,元宝、豆包和Kimi在这场DeepSeek浪潮中到底有什么变化,未来又将走向何方?DataEye将结合数据,为大家带来这几款AI助手的最新变动。

    在排行榜上,过去豆包在App Store排名始终要高于元宝,如今攻守之势逆转。

    2月22日,腾讯元宝超越豆包,升至大陆地区苹果端免费榜第二名,DeepSeek依旧位列第一。

    而元宝反超豆包登顶的最直接动力,是近期大涨的付费投放力度,间接原因则与产品端变动有关。

    先看投放侧。

    ADX数据显示,2月5日之前,Kimi、豆包与腾讯元宝投放素材量分层明显,且存在不小差距。

    而后,Kimi投放素材量逐步滑落,并在2月15日左右成为三者中最低,至今始终保持着日素材量不超1000组的力度。

    豆包在2月5日后投放力度先有一定程度上涨,后又大幅下滑,保持着与1月下旬相似的投放力度。

    元宝的变化最为明显。在过去,元宝投放力度向来不高,腾讯也被外界认为在AI大模型领域战略模糊、动作迟缓。不过在2月15日,元宝投放力度小幅上涨,2月18日,大幅上涨,至今单日最高投放素材量超1.1万组,成为三者中第一。

    对比之下,元宝投放力度大涨至今6天时间内(2.18-2.23),投放素材量共5.5万组,环比投放力度上涨前6天(2.9-2.14)投放素材量1.2万组,上涨幅度达345.1%。

    至于三款产品投放力度变化的原因,DataEye研究院认为:

    ①腾讯元宝接入DeppSeek并上线自研推理大模型HunyuanT1,通过加大投放力度抢占市场占领用户心智,并为HunyuanT1大模型进行推广。

    2月13日,腾讯元宝更新版本宣布接入DeepSeek,这与2月15日元宝投放力度小幅上涨时间点相契合;2月17日,腾讯元宝上线HunyuanT1大模型,这与2月18日投放力度大涨时间点相契合。

    这段时间内,腾讯元宝版本更新频繁,2月22日新版本已支持上传及拍照识图,在产品、投放多重因素引导下,元宝正式超越豆包,成为大陆地区苹果端免费APP下载榜第二名。

    ②豆包投放力度先涨后跌,实际只是回归正常投放状态。与腾讯相比,豆包并未接入DeepSeek,甚至字节整体对待DeepSeek的态度都非常保守。这似乎代表着字节对自家豆包大模型的自信:字节或许相信,豆包大模型能够在不久的将来追赶上DeepSeek的水平。

    因此在DeepSeek爆火后短暂加大投流试图追赶,而后回归理性状态,较符合豆包投流力度变化趋势。

    ③Kimi则是对过去自身“重投放”策略进行反思,决定减少投放,聚焦基础模型训练。上周有媒体报道称月之暗面近期决定大幅收缩产品投放预算,包括暂停多个安卓渠道的投放,以及第三方广告平台的合作。这与Kimi在2月15日左右投放素材量暴跌相契合。

    与此同时,月之暗面内部复盘认为要坚持基础模型SOTA(State-of-the-art,当前最佳),接下来可能会重新训练基础模型,并抓紧应用层机会,内部选中的一个方向是一款面向深度研究领域的智能体产品DeepResearch。

    今天来看,Kimi与豆包这两款过去的明星AI应用,一个大砍投放、一个回归正常,反而是声量较小的腾讯元宝后来居上。

    那么在这股风潮下,未来几个月AI圈又将出现什么新的变化?豆包、Kimi是否会在技术层面有新的突破?元宝老二的位置能否坐稳?DataEye研究院将持续关注。

    来源:微信公众号“DataEye应用数据情报”

  • 专访微软CEO:AGI并非真正基准,AI行业也不会“赢家通吃”

    专访微软CEO:AGI并非真正基准,AI行业也不会“赢家通吃”

    【编者按】日前,微软首席执行官 Satya Nadella 在参加由知名科技播客主持人 Dwarkesh Patel 主持的播客节目 Dwarkesh Podcast 时,谈到了他对当前人工智能(AI)/通用人工智能(AGI)的前景、量子计算的革命性进展,以及科技如何推动全球经济变革的看法。

    当各家公司都在争先恐后地追逐 AGI 时,Nadella 在访谈中却语出惊人,“我们自己宣称达成某个 AGI 的里程碑,对我来说,那只是一些无意义的基准修改。真正的基准是:全球经济增长 10%。”

    同时,他认为,法律与伦理基础设施(如责任归属、劳动价值重构)是部署强大 AI 系统的先决条件。

    此外,他还预言, 未来人类将管理“智能体蜂群” ,通过 Copilot 等界面协调任务,而认知劳动的定义将随着技术迭代不断升级。

    主要内容包括以下 9 个方面:

    1. AI 行业不会“赢家通吃”
    2. 真正的基准:全球经济增长 10%
    3. 智能的价格正在下降
    4. 量子突破
    5. Muse 将如何改变游戏?
    6. AI 的法律障碍
    7. 让 AGI 真正安全
    8. 34 年微软生涯
    9. 相信 AGI 吗?

    学术头条在不改变原文大意的情况下,对整体内容做了精编, 全篇内容较长,干货满满,建议收藏 ,如下:

    Dwarkesh Patel:Satya,非常感谢你来参加我们的播客。

    稍后我们将讨论微软近期取得的两项突破,恭喜你们,这两项成果同一天在《自然》杂志上发表:Majorana 芯片,就放在我们面前,还有 WHAM(世界和人类行动模型)。你描述了你在 80 年代和 90 年代看到的事情,现在它们又在重新发生。

    Satya Nadella:对我来说感到兴奋的是……Dwarkesh,首先,非常高兴参与你的播客。我是你的忠实听众,我非常喜欢你做访谈的方式和你所探讨的广泛话题。

    这让我有点想起我在 90 年代刚进入科技行业的前几年,当时人们就在争论到底是采用 RISC 还是 CISC,或者“嘿,我们真能用 x86 来构建服务器吗?”

    当我加入微软时,那正是 Windows NT 诞生之初。因此,从核心芯片平台到操作系统,再到应用层——这种全栈方法——整个过程都在争论之中。

    你可以说云计算领域也有类似的情况,显然分布式计算和云计算确实改变了客户端-服务器架构,网页也发生了巨大的变化。但这感觉似乎比我曾经参与过的更像是一个全栈。

    Dwarkesh Patel:当你回顾上世纪 80 年代和 90 年代,想想哪些决策最终成为了长期赢家,哪些没有,特别是当你想到你曾在 Sun Microsystems 工作时,他们在上世纪 90 年代的互联网泡沫中经历了一段有趣的历程。人们常说数据中心的建设是一个泡沫,但与此同时,我们今天的互联网也是当时建设的结果。

    那么,什么是经得起时间考验的经验教训?什么是固有的世俗趋势?哪些只是昙花一现?

    Satya Nadella:回过头来看,我参与过四大变革中的客户端以及客户端-服务器。这就是图形用户界面(GPU)和 x86 架构的诞生,基本上让我们能够构建服务器。

    我记得非常清楚,1991 年,我去参加 PDC(微软专业开发者大会),当时我还在 Sun Microsystems 工作。那一年,我去了 Moscone,那时候,微软首次描述了 Win32 接口,我当时就很清楚接下来会发生什么,服务器也会成为 x86 架构的东西。当某个东西具备规模优势时,那就是你必须做出的长期投资选择。在客户端发生的一切会在服务器端发生,然后你就能真正构建客户端-服务器应用程序。因此,应用模型变得清晰。

    然后,互联网就是我们的重大挑战,我们必须在开始时就应对它。实际上,我一加入微软,网景浏览器(Netscape)或马赛克浏览器(Mosaic)就发布了,大概是在 1993 年 12 月或 11 月吧?应该是 Andreessen 和他的团队推出的。

    从一个有趣的视角来看,这真是一个改变游戏规则的大事件,当时,我们正掀起客户端-服务器浪潮,而且很明显我们也将在这一浪潮中获胜。我们迎来了浏览器时代,因此我们必须做出调整。由于浏览器是一种全新的应用模式,我们的调整工作做得相当出色。

    我们所做的一切都是为了全力拥抱那个时代,无论是在 Word 中使用 HTML,还是我们自己构建一个新的浏览器并为之竞争,抑或是在我们的服务器堆栈上构建一个 web 服务器。然而,不可否认的是,我们错过了网络上最大的商业模式,因为我们都认为网络的核心是分布式——谁能想到搜索会成为组织网络的最大赢家呢?显然我们没有看到这一点,而 Google 看到了,并且执行得相当出色。

    所以,这就是我学到的一个教训:你不仅要把握好技术趋势,还必须了解这一趋势将在哪里创造价值。这些商业模式的转变可能比技术趋势的变化更难预测。

    AI 行业不会“赢家通吃”

    Dwarkesh Patel:人工智能的价值将在哪里创造?

    Satya Nadella:这是一个很好的问题。我可以比较有信心地说两个地方。一是表现良好的超大规模运营商(Hyperscaler),因为从根本上讲,如果你回顾一下 Sam 和其他人的描述,如果智能是计算的对数,那么谁能进行大量计算,谁就是大赢家。

    另一个有趣的地方是,如果你看一下任何 AI 工作负载的底层,就像拿 ChatGPT 来说,并不是每个人都对 GPU 方面的进展感到兴奋,虽然它很棒。事实上,我甚至把我的计算资源看作是 AI 加速器、存储和计算的比率。在规模上,你必须不断扩展它。

    Dwarkesh Patel:是的。

    Satya Nadella:所以,全球对这种基础设施的需求将会呈指数级增长。

    Dwarkesh Patel:没错。

    Satya Nadella:因此,事实上,拥有这些 AI 工作负载就像是天赐之物,因为你猜怎么着?他们对计算的需求更大,不仅是为了训练,也是为了测试时。想想看,一个 AI 智能体会以指数级的速度增加计算量,因为这不只是一个人调用一个程序,而是一个人调用的程序又会调用更多的程序。这将创造出巨大的计算基础设施需求和规模。因此,我们的超大规模业务,Azure 业务,以及其他超大规模公司,我认为这是一件大事。

    之后,情况就变得有点模糊了。你可以说,嘿,有赢家通吃的模式,但我没发现。顺便说一下,这是我学到的另一件事:善于理解哪些市场是赢家通吃,哪些不是赢家通吃,某种意义上来说,这就是一切。我记得在我刚开始进入 Azure 时,亚马逊已经领先很多,人们会来找我,投资者也会找我说,“哦,结束了,你们永远无法赶上,亚马逊是赢家通吃。”

    在与甲骨文和 IBM 在客户端-服务器领域竞争过后,我知道买家是不会容忍赢家通吃的。从结构上讲,超大规模公司永远不会是赢家通吃的,因为买家很聪明。

    消费者市场有时可能是赢家通吃的,但只要买方是公司、企业、IT 部门,他们就会希望有多个供应商。所以,你得成为其中一个供应商。

    我认为,这在模型方面也会发生。会有开源的存在,也会有一个“管制者”。就像在 Windows 上,我学到的一个重要教训是,如果你有一个闭源操作系统,那么一定会有一个与之互补的开源系统。

    因此,在某种程度上,这就是对事态发展的真正制衡。我认为在模型方面,可能会有少数几个闭源的,但一定会有开源的替代方案,开源的替代方案实际上会确保闭源的赢家通吃被遏制。

    这是我对模型方面的看法。顺便说一下,如果这些东西真的像人们说的那样强大,政府是不会坐视不管让私营公司到处……全世界都是如此。所以,我不认为它是赢家通吃的

    除此之外,我认为还是老一套,那就是在消费者市场,某些类别中,可能会有赢家通吃的网络效应。毕竟,ChatGPT 就是一个很好的例子。

    它是一个规模化(at-scale)的消费产品,已经获得了真正的“逃逸速度”(escape velocity)。我去 App Store 看,它总是排在前五名,我就会想,“哇,真不可思议。”

    所以,他们能够利用这个早期优势,把它转化为应用程序优势。在消费者市场上,这种情况可能发生。而在企业市场上,我认为不同的类别会有不同的赢家。至少我是这样分析的。

    Dwarkesh Patel:我还有很多问题。我们一会儿要聊量子计算,但关于模型可能被商品化的观点:也许几年前就有人对云计算提出过类似的论点——从根本上说,它不过就是一块芯片和一个盒子。

    但最终,当然,你和其他许多人找到了在云计算中获得惊人利润率的方法。你们找到了规模经济的途径,并增加了其他的价值。从根本上说,即使抛开行话不谈,如果你有了 AGI,并且它能帮助你创造更好的 AI ——现在是合成数据和强化学习(RL),也许未来是自动化的 AI 研究员——这似乎是巩固优势的一个好方法。我很好奇你对此怎么看,单纯是关于在这方面走在前面真的很重要的这个想法。

    Satya Nadella:在规模上,没有什么是商品化的。关于云计算的观点,每个人都会说,“哦,云计算是商品。”除非,当你做到规模化……这就是为什么运营一个超大规模公司需要特定的技术和经验……你可以说,“哦,那有什么难的?我可以把服务器堆叠起来。”

    Dwarkesh Patel:没错。

    Satya Nadella:事实上,在超大规模计算的早期,大多数人认为“有这么多主机托管商,但那些不是什么好生意。超大规模计算真的是生意吗?它会有业务吗?”结果证明,超大规模计算是一个真实的生意,因为 Azure 拥有运行全球 60 多个地区所有计算的专门技术。这是很难复制的。

    所以,我更想说的是,这是一个赢家吗?到底是不是赢家通吃?因为这一点必须搞清楚。我喜欢参加 TAM(总可用市场)的类别,这样就不会有赢家通吃的风险。最好的情况是,一个大市场能容纳几个赢家,而你就是其中之一。

    这就是我所说的 hyperscale 层级。在模型层级,一个模型最终需要在一些 hyperscale 的计算平台上运行。所以,我觉得这种联系将永远存在。它不仅仅是模型;模型需要状态,这意味着它需要存储,还需要需要常规的计算资源来运行这些智能体和智能体环境。

    因此,这就是为什么我认为一个人跑赢并建立一个完整的模型的极限可能不会发生的原因。

    Dwarkesh Patel:关于 hyperscaler 计算平台,顺便说一下,作为一个 hyperscaler,你的优势也很有趣,特别是在推理时扩展方面,如果这涉及到未来模型的训练,你可以将数据中心和 GPU 的成本摊销,不仅用于训练,还可以再次用于推理。

    我很好奇,你认为微软和 Azure 是何种类型的 hyperscaler。是侧重于预训练的部分?还是提供 o3 类的推理?还是你们只是提供托管和部署市场上的任何单一模型,对此保持中立?

    Satya Nadella:这是个很好的问题。我们希望构建的计算平台在某种意义上是顺应摩尔定律(Moore’s Law)的。我认为,这就像我们过去做的所有事情一样:每年不断刷新平台,按照这些设备的生命周期价值进行折旧,然后对机群进行非常好的布局,以便能高效地运行不同的任务。有时会有非常大的训练任务,需要配置高度集中的峰值计算能力,并且这些任务也需要相互协同。这很好。我们应该有足够的数据中心资源来满足这些需求。

    但归根结底,这些都变得非常庞大,甚至在预训练规模的情况下,如果需要持续进行,预训练的规模有时也必须跨越数据中心的边界。这一切或多或少都存在。

    那么,很好,一旦开始跨越预训练的数据中心边界,这和其他有什么不同呢?我考虑的方式是,嘿,分布式计算将保持分布式,所以要构建你的平台,使其准备好应对大规模训练任务,准备好进行测试时计算,甚至准备好——如果可能发生的强化学习最终实现了,你可以先建立一个大模型,然后进行大量的强化学习。对我来说,这就像是更多的训练计算,因为你想为不同的任务创造这些高度专业化、精炼的模型。

    因此,你需要那样的计算平台,然后是服务需求。归根结底,光速就是光速,你不能在得克萨斯州建一个数据中心,然后说,“我要从这里为全世界提供服务。”

    你必须在世界各地都有推理机群的基础上为全世界提供服务。这就是我对我们构建真正超大规模平台的理解。

    哦,顺便说一下,我希望我的存储和计算也靠近这些所有的东西,因为不仅仅是 AI 加速器是无状态的。我的训练数据本身需要存储,然后我想能够多路复用多个训练任务,我想能有内存,我希望能有这些环境,在这些环境中,智能体可以去执行程序。这就是我的想法。

    全球经济增长 10%

    Dwarkesh Patel:你最近报告说,你们每年通过 AI 获得的收入是 130 亿美元。但如果你看看年增长率,按照这个趋势,四年后,你们的 AI 收入将是现在的 10 倍,达到 1300 亿美元。如果这一趋势继续下去,你预见到如何利用所有这些智能,如何实现这种工业规模的应用?

    是通过 Office 吗?是你们为其他公司提供部署平台吗?要有 AGI,才能有 1300 亿美元的收入?那会是什么样子?

    Satya Nadella:这是个很好的问题,因为从某种程度上来说, 如果我们真的会迎来这种爆炸性的、丰富的、可利用的智能商品,我们首先要观察的就是国内生产总值(GDP)的增长

    在我谈微软的收入将是什么样子之前,所有一切的唯一制约因素有一个。我觉得, 我们在所有 AGI 的炒作中有些自夸 。记住,发达国家的经济增长率是 2%,如果调整通胀的话,可能是零增长。

    所以,2025 年,当我们坐在这里时,我不是经济学家,但至少我能看出我们有一个真正的增长挑战。因此,首先我们必须做的是,当我们说这就像是工业革命时,让我们实现那种工业革命式的增长。

    对我来说,那意味着 10%、7%,发达国家经过通胀调整后增长 5%。那才是真正的标杆。不能只是供应端的变化。

    事实上,这就是问题所在,很多人在写这个,我很高兴他们写这些,真正的赢家不会是科技公司。赢家将是那些使用这种丰富的商品的广泛行业,顺便说一下,智能将变得丰富,突然间生产力上升,经济的增长速度加快。当这种情况发生时,我们这个行业就好起来了。

    但对我来说,那才是关键时刻。 我们自己宣称达成某个 AGI 的里程碑,对我来说,那只是一些无意义的基准修改。真正的基准是:全球经济增长 10%

    Dwarkesh Patel:好吧,如果全球经济增长 10%,假设世界经济总量是 10 万亿美元,那如果增长 10%,相当于每年多创造 10 万亿美元的价值。如果是这样,作为一个超大规模服务商…… 800 亿美元似乎太少了,但难道你们不应该做到 8000 亿美元吗?

    如果你真的认为在几年内,全球经济能以这个速度增长,而关键瓶颈将是:你是否拥有足够的算力来部署这些 AI,完成所有这些工作?

    Satya Nadella:没错。但顺便说一下,经典的供应方观点是,“嘿,让我建好了,他们就会来。”这是一个论点,毕竟我们也做过,我们敢冒足够的风险去做。

    但在某个时候,供应和需求必须匹配。这就是为什么我同时关注这两个方面。你完全可能在炒作供应方时偏离轨道,而没有真正理解如何将其转化为对客户的实际价值。

    这就是为什么我关注我的推理收入,也是为什么我会披露推理收入的原因之一…… 有趣的是,很多人并没有谈论他们的真实收入,但对我来说,这是理解它的一个重要标准。

    你不能指望它们在任何给定时刻都对称匹配,但你需要有实际证明,证明你能够把昨天的“资本”转化为今天的需求,这样你才能再次投资,甚至可能以指数级的方式投资,知道你不会完全错配增长速度。

    Dwarkesh Patel:我在想这两种观点是否存在矛盾,因为你做得很好的一件事就是提前下注。你在 2019 年就投资了 OpenAI,甚至是在 Copilot 和任何应用出现之前。

    如果你看看工业革命,这些 6%、10% 的铁路建设和其他东西,其中很多都不是像 “我们已经从车票上获得了收入,现在我们要…… ”

    Satya Nadella:那时候确实有很多钱被浪费了。

    Dwarkesh Patel:没错。那么,如果你真的认为这里有潜力将世界的增长率提高 10 倍或 5 倍,然后你可能会想,“那么,GPT-4 的收入是多少?”

    如果你真的认为这是下一个层次的可能性,你难道不应该说“疯狂点,做数千亿美元的算力”吗?我觉得是有可能的,对吧?

    Satya Nadella:有趣的事情就在这里,没错。这就是为什么我觉得对基础设施采取平衡的方法非常重要。问题不在于建造算力,而是在于建造那些不仅能帮助我训练下一个大模型,还能为下一个大模型提供服务的算力。只有做到这两点,你才有可能真正利用你的投资。

    所以, 这不是单纯地在比谁能建造一个模型,而是在比谁能创造一种世界上正在使用的商品 ,推动……你必须有完整的思路,而不仅仅是关注某一件事。

    顺便说一下,其中一个问题是,肯定会有过度建设。关于你提到的互联网泡沫时期的情况,大家都知道,现在你需要更多的能源,需要更多的算力。多亏了这一点,每个人都会加入这场竞赛。

    实际上,不仅仅是公司在部署,国家也会投入资本,而且显然……我非常激动自己是一个领导者,因为,顺便提一下,我建造了很多,也租赁了很多。我很高兴看到我将在 2027 年、2028 年租赁大量的算力,因为我看到这些建设情况,我想,“这太棒了。”唯一会发生的事就是,所有算力的建设将导致价格下降。

    智能的价格正在下降

    Dwarkesh Patel:说到价格下降,你最近在 DeepSeek 模型发布后发了一条关于杰文斯悖论(Jevons Paradox)的推文。我很好奇你能否详细解释一下。杰文斯悖论发生在需求对某物的价格高度弹性时。智能是不是也受到价格下降的制约?

    因为至少在我作为消费者的使用案例中,智能技术已经非常便宜了。每百万个 token 只要两美分。我真的需要它降到 0.02 美分吗?我只是在让它变得更智能方面遇到了瓶颈。如果你需要向我收取 100倍 的费用,那就做 100 倍更大的训练。我很乐意公司这么做。

    但是也许你在企业端看到的是不同的情况。什么样的智能应用真的需要它降到每百万 token 0.002 美分?

    Satya Nadella: 我认为真正的关键在于 token 的效用 。两者都需要发生:一是智能需要变得更好、更便宜。每当出现突破性进展,比如 DeepSeek 所做的那样,性能与每个 token 的效率前沿发生变化,曲线会弯曲,前沿也会移动。这就带来了更多的需求。这正是云计算所经历的。

    有一个有趣的事情是:我们曾经以为“天哪,我们在客户端-服务器时代已经卖出了所有服务器”。但一旦我们开始把服务器放进云里,人们突然开始消费更多,因为他们可以以更便宜的价格购买,并且是弹性的,他们可以按使用量购买,而不是购买许可证,这完全扩展了服务器的消费范围。

    比方说,我们去印度这样的国家,跟他们讲“这是 SQL Server”。我们卖得不多,但天哪,印度的云计算远远超过了我们在服务器时代所能做的。我认为这将会继续发生。

    想想看,如果你真的想在全球南部、在发展中国家开展业务,如果这些 token 可以非常便宜地用于医疗保健,那将是史无前例的变革。

    Dwarkesh Patel:我认为,如果有人听到像我这样在旧金山的人说“他们有点傻;他们不知道在现实世界中部署技术是什么样的”,这其实是很合理的。

    作为一个与这些财富 500 强公司合作并帮助它们为数亿、数十亿人部署技术的人,你怎么看待这些功能的部署速度?

    即便拥有了能够工作的智能体,甚至是能够为你远程工作的一些工具,考虑到所有合规问题和固有的瓶颈,这会是一个大的挑战吗,还是会很快解决?

    Satya Nadella:这将是一个真正的挑战,因为真正的问题是变革管理或流程变革。这里有一个有趣的事情:我常用的一个类比是,想象一下,像我们这样的大型跨国公司,在没有个人电脑、电子邮件和电子表格的时代,是如何做预测的。传真到处都是。然后,有人拿到传真,做了一份部门间备忘录,然后到处传阅,人们输入数字,最后得出预测,也许正好赶上下一季度。

    然后有人说,“嘿,我只要把 Excel 表格放到电子邮件里,发出去,让大家编辑一下,我就能得到预测。”所以,整个预测的业务流程发生了变化,因为工作成果和工作流程发生了变化。

    这就是 AI 引入知识工作时需要发生的事情。事实上,当我们想到这些智能体时,根本的变化就是有了一种新的工作方式和流程。

    比如说,在准备我们的播客时,我会去我的助手那里说,“嘿,我要和 Dwarkesh 讨论我们关于量子计算的公告以及我们为游戏生成所建立的新模型。给我一个我在谈话前应该阅读的内容摘要。” 它知道了那两篇《自然》杂志的论文,并且提取了相关信息。我甚至说,“嘿,给我做一个播客格式的总结。” 结果,它做得很不错,两个人像聊天一样讨论了这个话题。

    所以这就成了—实际上,我还把它分享给了我的团队。我把它放进了 Pages,这是我们的工具,然后分享给了大家。所以我现在的工作流程是,我和我的同事一起使用AI来完成工作。

    这就是对所有从事知识工作的人来说,根本性的变革管理,突然间大家开始弄清楚这些新的模式,“我如何用新的方式完成我的知识工作?” 这需要时间。这将会在销售、金融和供应链中发生。

    对于现有公司来说,我认为这将是一件,让我们以我喜欢用的类比来说明,就像制造商做的精益生产方面所做的事情。我喜欢这个类比,因为,从某种意义上来说,精益生产成为了一种方法论,它可以让人们将制造的端到端流程变得更加高效。这是一种持续改进的过程, 减少浪费、增加价值

    这也是知识的发展趋势。这就像是知识工作中的精益生产。这将是从事知识工作的管理团队和个人的艰苦工作,需要时间。

    Dwarkesh Patel:我可以简短地问一下关于那个类比的问题吗?精益生产做的其中一件事是,物理上改变了工厂车间的面貌。它揭示了人们在真正关注流程和工作流程之前没有意识到的瓶颈。

    你简要提到了你的工作流程——AI 改变了你的工作流程。我很好奇,随着 AI 智能体越来越智能,管理一个大公司会是什么样子?

    Satya Nadella:你问得很有意思。我在想,举个例子,如果我的工作非常依赖电子邮件。我早上到达办公室,发现我的收件箱满了,我在回复邮件,所以我迫不及待地想让一些 Copilot 智能体自动填充我的草稿,这样我就可以开始审阅和发送了。

    但我现在在 Copilot 里至少有十个智能体,我会根据不同的任务向它们提问。我觉得会有一个新的收件箱诞生,那就是 我与成千上万的智能体打交道,它们需要向我报告一些异常情况,发出通知,或者请求我的指示

    因此,至少我现在想到的是,会有一个新的框架,那就是智能体管理器。它不仅仅是一个聊天界面。我需要一个比聊天界面更智能的工具来管理所有智能体及其对话。

    这就是为什么我认为 Copilot 作为 AI 的用户界面非常重要。我们每个人都将拥有它。基本上,你可以把它看作:有知识工作,就有知识工作者。知识工作可能由许多智能体来完成,但你仍然有一个知识工作者在处理所有这些知识工作者。而我认为,这就是我们需要构建的界面。

    量子突破

    Dwarkesh Patel:你是世界上少数几个可以说拥有 20 万个以微软公司及其所有员工为形式的智慧蜂群的人。你需要管理它,你需要与之互动,如何最好地利用它。希望未来世界上更多的人也能够拥有这种体验。

    我很好奇,如果所有人的收件箱像你一样,你的收件箱早晨会是什么样子的。

    好吧,在我们深入讨论这个问题之前,我想继续问你一些关于AI的问题,我真的很想问你关于微软研究院宣布的量子领域的重大突破。你能解释一下这是怎么回事吗?

    Satya Nadella:这是我们另外一段 30 年的旅程。简直难以置信。我是微软第三任 CEO,曾对量子计算充满热情。

    这里的根本突破,或者说我们一直以来的愿景是,你需要一个物理学的突破,才能构建一个实用规模的量子计算机。我们认为,要想获得噪声更小或更可靠的量子比特,唯一的办法就是在物理特性上下注,因为从定义上讲,物理特性更可靠,而这就引领我们走向了马约拉纳零模式(Majorana zero mode),马约拉纳零模式是 20 世纪 30 年代就提出的理论。问题是,我们能否真的物理上制造出这些东西?我们真的能构建它们吗?

    实际上,我知道你也跟 Chetan 聊过,真正的突破就是我们现在终于有了一个存在性证明和物理学突破,即在一种新的物质相中发现了马约拉纳零模式。这就是为什么我们喜欢将这一突破类比为量子计算的“晶体管时刻”,因为我们实际上拥有了一个新的阶段,即拓扑阶段(Topological phase),这意味着我们现在可以可靠地隐藏量子信息、测量它,并且可以制造它。现在,我们已经掌握了这种核心基础制造技术,我们可以开始制造马约拉纳芯片了。

    这个“马约拉纳一号”(Majorana One),我认为它将基本上是第一个能够支持百万量子比特的物理芯片。然后基于它,可以实现数千个逻辑量子比特,经过纠错处理。到那时,真正的挑战就开始了。突然间拥有了构建一个真正的实用规模量子计算机的能力,对我来说,这现在变得更加可行了。没有像这样的突破,仍然能实现一些里程碑,但永远无法构建一个实用规模的计算机。这就是我们感到兴奋的原因。

    Dwarkesh Patel:太惊人了。顺便说一句,我相信这就是它。

    Satya Nadella:没错,这就是它。

    Dwarkesh Patel:是的。

    Satya Nadella:我现在有些忘了,我们是不是叫它马约拉纳?对,没错,就是马约拉纳一号。很高兴我们以这个名字来命名它。

    想想看,我们竟然能在如此小的体积中构建出一个百万量子比特的量子计算机,真是难以置信。这就是问题的关键:除非我们能做到这一点,否则就别想着能构建一个实用规模的量子计算机。

    Dwarkesh Patel:你是说最终的百万量子比特会放在这么小的芯片上吗?太棒了。

    其他公司也宣布了 100 个物理量子比特,比如谷歌、IBM 等。你说你们也有一个,但你提到你们的量子计算机在规模扩展性上远远领先时,是什么意思?

    Satya Nadella:是的。我们还做了一件事,我们采取了一种将软件和硬件分开的方法。我们正在构建自己的软件堆栈,现在,我们与中性原子和离子阱的团队合作,还与其他一些有相当不错的光子学方法的团队合作,这意味着会有不同类型的量子计算机。事实上,我想我们最近宣布的有 24 个逻辑量子比特。所以我们在纠错方面也取得了一些非常棒的突破,这使得我们能够在中性原子和离子阱量子计算机上构建这些 20 个以上的量子比特,我认为这个进展会持续下去,你将看到我们在这一方面的不断改进。

    但我们也说过, “让我们从基本原则出发,构建我们自己的量子计算机,将赌注押在拓扑量子比特上。” 这就是这次突破的意义所在。

    Dwarkesh Patel:太惊人了。百万拓扑量子比特,数千个逻辑量子比特,预计要达到这个水平的时间是多久?如果你们已经有了第一个晶体管,那么这里的摩尔定律会是什么样的?

    Satya Nadella:显然,我们已经为此努力了 30 年。我很高兴我们现在有了物理学上的突破和制造技术上的突破。

    我希望我们现在能有一台量子计算机,因为,顺便说一下,量子计算机首先能让我们做的事情就是制造量子计算机,因为模拟这些新量子门的原子级构建将变得更加容易。

    但无论如何,接下来的真正任务是,既然我们有了制造技术,就让我们去制造第一台容错量子计算机吧。

    所以,我现在可以说,“哦,也许到 2027、2028、2029 年,我们就能真正造出这台计算机”。现在我们有了这个量子“门”,我能把它装进集成电路里 然后把这些集成电路装进真正的计算机里吗?这就是下一步的逻辑所在。

    Dwarkesh Patel:那么,你预料,到了 2027、2028 年,你们的量子计算机能工作了吗?它可以通过应用程序接口(API)访问吗?还是它是你们内部用于材料和化学研究的工具?

    Satya Nadella:这是一个很好的问题。让我感到兴奋的一件事是,即使在今天的世界里我们有这个量子程序,还为它添加了一些 API。我们在两年前取得的突破是把高性能计算堆栈、人工智能堆栈和量子放在一起考虑。

    事实上,如果你想想看,AI 就像是模拟器的仿真器。量子就像是大自然的模拟器。量子会做什么?顺便说一下,量子不会取代经典计算。量子擅长它能做的事,而经典计算也会……

    量子在任何不是数据密集型但在状态空间方面是探索密集型的事情上都将非常出色。它应该是数据轻量的,但在你想要探索的指数状态上。模拟就是一个很好的例子:化学物理、什么的、生物学。

    我们开始做的其中一件事就是真正将 AI 作为仿真引擎。但你可以然后进行训练。所以我认为的方式是,如果你有 AI 加量子,或许你会用量子生成合成数据,然后让 AI 利用这些数据训练更好的模型,从而能够模拟化学、物理或其他领域。这两者会一起使用。

    因此,即使今天,我们实际上就是在做高性能计算(HPC)和 AI 的结合。我希望能够用量子计算机替代一些 HPC 的部分。

    Dwarkesh Patel:你能不能告诉我,你是如何做出这些研究决定的,尤其是在微软这样规模的公司,这些决定在 20 年、30 年后是否真的会带来红利?显然,你对这个项目的技术细节非常了解。你觉得在微软研究院做所有这些事情的同时,你还能做出这样的决策吗?

    你怎么知道你现在下的赌注在 20 年后会有回报?是必须通过组织有机地涌现出来,还是你如何跟踪这一切?

    Satya Nadella:我觉得比尔(盖茨)在 1995 年左右创办微软研究院(MSR)时的做法非常棒。我认为,在这些以好奇心为驱动力的研究机构的悠久历史中,只做基础研究的研究机构和 MSR,多年来已经建立起了这种制度优势,因此,当我考虑资本分配或预算时,我们首先把筹码放进去,然后说:”这是 MSR 的预算”。我们每年都要这样做,因为我们知道,大多数赌注都不会在有限的时间内得到回报。也许微软的第六任 CEO 会从中受益。在科技行业,我认为这是必然的。

    我真正考虑的事情是,当像量子计算、新模型等这样的技术时机到来时,能否抓住这些机会?作为在位者,如果你回顾一下科技史,你会发现并不是说人们没有投资下注,而是你需要有一种文化,知道如何把创新进行规模化。

    这对 CEO 和管理团队来说是真正困难的部分,坦率地说,这一点很吸引人。它不仅仅关乎良好的判断力,也关乎良好的文化。有时候我们做对了,有时候做错了;我可以告诉你微软研究院有上千个项目,我们应该领导这些项目,但我们没有做到。我总是问自己为什么。因为我们没有足够的信心去完成那个完整的思考,不仅仅是把创新引入市场,而是把它做成一个有用的产品,并有一个商业模式,我们能拿去市场推广。

    这是 CEO 和管理团队的工作: 不能只对某一件事感到兴奋,而是能够真正执行一个完整的方案。这说起来容易,做起来难。

    Dwarkesh Patel:你提到微软可能会有三位继任 CEO,如果他们每个人都能将市值提高一个数量级,那么当你取得下一个突破时,你就会成为世界经济的领头羊之类的人物。

    Satya Nadella:或者记住,世界将以 10% 的速度增长,所以我们会没事的。

    Muse 将如何改变游戏

    Dwarkesh Patel:让我们深入了解你们刚刚取得的另一个重大突破。你们在同一天发布了这两项突破,在你们的游戏世界模型中真的让人震惊。如果你能简单介绍一下这个模型,我将非常高兴。

    Satya Nadella:我们将其称为 Muse,它将成为这个世界的行动模型或者说人类行动模型。

    这真是太酷了。显然,Dall-E 和 Sora 在生成模型方面所取得的成就令人难以置信。我们想要追求的一件事就是利用游戏玩法数据,你能否生成既一致又能展现游戏多样性的游戏,并且能够对用户的 mod 进行持久化处理?

    这就是问题所在。他们能与我们的一家游戏工作室合作,这就是《自然》杂志上的另一篇文章。

    最酷的是,我期待着将来很快会有一个游戏目录,我们将开始使用这些模型,或者我们会训练这些模型来生成游戏,然后开始玩它们。

    事实上,当 Phil Spencer 第一次向我展示时,他拿着一个 Xbox 手柄,这个模型基本上根据输入生成了输出,而且与游戏一致。对我来说,这是一个巨大的“哇”的时刻。这就像我们第一次看到 ChatGPT 说完整的句子,或者 Dall-E画画,或者 Sora 一样。这是这样一个时刻。

    Dwarkesh Patel:今天早上,我有机会看到你们的首席研究员 Katja 展示的实时演示视频。和她谈过后,我才真正意识到这有多么不可思议,因为我们过去已经使用 AI 来建模智能体,而仅仅利用相同的技术来建模智能体周围的世界,便能提供一致的实时反馈——我们将在这期播客上叠加相关视频,大家可以亲眼看到。到时候它应该也会发布,大家可以在那里观看。

    这一切本身就令人难以置信。作为 CEO,你已经投入了数百亿美元来建立微软游戏并收购知识产权。

    回顾过去,如果你能将所有这些数据整合成一个大型模型,能够带给你同时访问和体验多个世界的感受,而如果这是游戏未来发展的方向,看起来这笔投资是非常值得的。你当时有预感到这一点吗?

    Satya Nadella:我不会说我们投资游戏是为了构建模型。坦率地说,我们投资游戏,实际上是因为——这是我们历史中的一件有趣的事:我们在开发 Windows 之前就已经开发了第一款游戏。飞行模拟器在我们开发 Windows 之前就是微软的产品。

    所以,游戏在公司历史上有着悠久的传统,我们投资游戏是为了游戏本身。我总是先说,我讨厌那种为了达成某种目标而进入的行业。它们必须本身就是目的。

    是的,我们不是一个企业集团,我们是一家公司,必须将这些资产整合起来,通过增值成为更好的所有者。例如,云游戏对我们来说是一个自然的投资方向,因为它将扩展市场总量(TAM),并扩大人们在任何地方玩游戏的能力。

    同样,AI 与游戏的结合:我们确实认为它可能会有所帮助——它就像是长期以来游戏的 CGI 时刻。这太棒了。作为全球最大的发行商,这对我们非常有帮助。但与此同时,我们必须制作高质量的游戏。我的意思是,如果不专注于这一点,你根本不能成为一个游戏出版商。

    这个数据资产将会非常有趣,不仅在游戏的背景下,而是作为一个通用的行动模型和世界模型,这太棒了。我认为或许就像 YouTube 之于 Google一样,而游戏数据之于微软也是如此。因此,我对此感到非常兴奋。

    Dwarkesh Patel:是的,这就是我想表达的意思,就是说,你可以在多种不同的游戏中获得统一的体验。除了 AI 之外,这与微软过去所做的其他工作有什么关系,比如混合现实?也许能给小型游戏工作室一个机会来制作这些 AAA 级动作游戏?在五到十年后,你能想象有哪些方式?

    Satya Nadella: 我早在五、六、七年前就说过,我们要下的三大赌注是 AI、量子和混合现实

    我仍然相信它们,因为从某种意义上讲,要解决的大问题是什么?存在感。这是混合现实的梦想。你能创造出真正的存在感吗?就像你我在做这种播客一样。

    老实说,我认为这是那些挑战中最难的一个。我本以为它会更容易解决。可能更困难的一部分,是因为它涉及到社交因素:穿戴设备等等。

    实话讲,我们很高兴能与 Anduril 还有 Palmer 合作,尤其是他们如何推动 IVAS 项目,因为这是一个绝佳的应用案例。我们会在这方面继续努力。

    二维(2D)界面也是如此。我认为这会继续发展下去。这是一个长期的趋势。

    我们已经讨论过量子了,AI 是另一个。所以,这三件事是我关注的方向。我在思考如何将这些东西结合起来?最终,不是为了技术本身,而是为了实现我们作为人类在生活中所追求的一些基本需求,并且更多地在我们的经济中推动生产力。如果我们能以某种方式把这一点做对,我认为我们就真的取得了进展。

    AI 的法律障碍

    Dwarkesh Patel:回到 AI 这个话题,你在 2019 年投资了 OpenAI,非常早,你在书中提到过, “也可以说我们正在孕育一种新物种(new species),其智能可能没有上限。”

    当然,2017 年谈论这个话题是非常超前的。我们已经在具体细致地讨论智能体、Office Copilot、资本支出等问题。但如果把眼光放远,考虑到你的这番话,再加上你作为一个超大规模公司运营者,同时也是研究这些模型的人,为构建一个新物种提供培训、推理和研究,你是如何从全局的角度看待这个问题的?

    你认为在你作为 CEO 的任期内,我们会朝着超人类智能的方向发展吗?

    Satya Nadella:我认为甚至 Mustafa 都用过这个词。实际上,他最近也提到了这个“新物种”。

    我的看法是,信任是必须的。在我们宣称这是一个物种之前,我们要做的最基本的事情就是要有真正的信任,无论是个人层面的信任还是社会层面的信任,这才是硬道理。

    我认为,影响这项技术最大限制因素将是我们的法律……可以称之为基础设施,我们讨论的是所有计算基础设施,那么法律基础设施如何发展以应对这一点呢?整个世界都是建立在诸如人类拥有财产、拥有权利和承担责任等概念上的。这是一个根本问题,首先必须问清楚的是,这对现在人类作为工具使用的所有事物意味着什么?如果人类将更多的权力委托给这些工具,那么这种结构将如何发展?在这个问题得到真正解决之前,我认为光谈技术能力是无法实现的。

    Dwarkesh Patel:意思是,在我们搞清楚如何解决这个问题之前,我们不能部署这种类型的智能?

    Satya Nadella:完全正确。因为归根结底,今天你无法部署这些智能,除非有某个人为其提供担保。

    就像你说的,这也是为什么我认为,即使是最强大的 AI,基本上也还是在人某个类的授权下运作。你可以说,哦,那都是对齐问题,等等。正因如此,我认为你必须真正确保这些对齐能够发挥作用,并且能够以某种方式验证,但我就是不认为你可以部署那些失控的智能。例如,AI 的起飞问题可能会成为一个真正的问题,但在它成为真正的问题之前,真正的问题会出现在法庭上。没有哪个社会会允许某个人说:“是 AI 干的。”

    Dwarkesh Patel:是的。世界上有很多社会,我想知道是否有哪个社会的法律体系会更为宽容。如果没有起飞,那你可能会担心。这不一定非得发生在美国,对吧?

    Satya Nadella:我们认为没有哪个社会能做到不在乎,对吧?虽然确实可能会有不法分子,我并不是说不会有不法分子,它们确实存在。

    但要认为整个人类社会根本不在乎这一点,也是不对的。我认为我们所有人都会在意。我们现在知道如何应对流氓国家和不法分子。世界不会坐视不管,而说“我们可以容忍”。

    Dwarkesh Patel:是的。但如果你能想象出经济增长 10 %的景象,我认为这真的取决于像 AGI 这样的东西能否发挥作用,因为数十万亿美元的价值,听起来更接近人类工资的总和,约 60 万亿美元的经济总量。要达到这种规模,你基本上必须在非常显著的方式上自动化劳动或补充劳动。

    如果这有可能,一旦我们弄清楚它的法律后果,那么即便在你任期内,我们也有可能解决这个问题。你在考虑超人类智能吗?就像你职业生涯中最大的成就就是这个?

    Satya Nadella:你提到了另一个点。我知道 David Autor 等人谈了很多这个问题,60% 的劳动——我认为需要解决的另一个问题是,至少在我们的民主社会中,稳定的社会结构和民主制度的运作不能仅仅依靠资本的回报,而没有劳动的回报。我们可以讨论这个问题,但这 60% 的劳动必须重新估价。

    用我自己简单的方式,也许你可以称之为天真,我们将开始评估不同类型的人类劳动。今天被认为是高价值的人类劳动,可能会变成商品。我们可能会看重一些新的东西。

    包括那个帮助我做理疗的人,或者其他我们看重的东西,但归根结底,如果我们的劳动没有回报,工作没有意义,工作没有尊严,那也是这些东西能否部署的一个制约因素。

    让 AGI 真正安全

    Dwarkesh Patel:关于对齐问题,两年前,你们发布了 Sydney Bing。为了明确一点,就当时的能力水平而言,这只是一个迷人、令人愉快、也有些幽默的误对齐的例子。

    在当时,它就像聊天机器人一样。它们可以思考 30 秒,给你一些有趣或不恰当的回复。但是,如果你考虑到这种系统–我想,对于《纽约时报》的记者来说,这种系统曾试图让他离开他的妻子或其他什么–如果你考虑到这种系统的未来,而你拥有的这些智能体在未来的几个小时、几个星期、几个月里,就像自主的 AGI 群一样,他们可能会以类似的方式错位,把事情搞砸,也许还会相互协调,你们将如何应对,确保当你们拥有那个“大型 AGI”时,能够做到正确的对齐?

    Satya Nadella:没错。这也是我们通常在分配计算资源时的原因之一—— 我们要为对齐问题分配计算资源

    更重要的是,我们需要考虑真正能够监控这些事情的运行时环境是什么?它的可观察性如何?我们今天在传统的技术领域也面临很多类似的问题,比如网络安全。我们不只是编写软件,然后任其发展。有了软件,还要对其进行监控。你要监控它是否遭受网络攻击、是否存在故障注入等等。

    因此,我认为我们必须在这些部署方面建立足够的软件工程支持,然后在模型本身内部解决对齐问题。这些问题中,有些是科学问题,有些是工程问题,我们必须逐一攻克。

    这也意味着我们需要承担我们自己的责任。所以,我更倾向于将这些技术部署在那些可以实际管理其范围和规模的地方。你不能就这样把某个系统释放到外部世界中,造成伤害,因为社会不允许这样做。

    Dwarkesh Patel:当你拥有能够为你完成数周任务的智能体时,你希望在让它运行一个随机的财富 500 强公司之前,你想要的最基本的保障是什么?

    Satya Nadella:我认为,当我使用像 Deep Research 这样的东西时,最低的保障要求是,在我们特别拥有任何东西的物理化身之前,这应该是一个门槛,当你越过这个门槛时,才会考虑进一步的部署。那可能是其中一个点。

    另一个方面是,比如说,这些系统运行的环境的权限。

    Dwarkesh Patel:我的意思是,我们已经有了网络搜索,而且已经脱离沙箱了。

    Satya Nadella:但即便是网络搜索,它做的事情,以及它写的内容——比如说,假如它只是为了进行某些计算而写一堆代码,那些代码是在哪里部署的?这些代码是仅仅为了创建输出而临时生成的,还是会被放出去到世界上?

    这些是你在行动空间中可以真正控制的东西。

    Dwarkesh Patel:除了安全问题之外,当你考虑到自己的产品套件,并且思考如果你确实拥有如此强大的 AI 系统时,某个时刻,它不仅仅像是 Copilot——你提到的关于你如何为这次播客做准备的例子——更像是你实际将工作委派给同事的方式。

    在你当前的产品套件基础上,添加这些 AI 会是什么样子?我指的是, 是否有一个问题是,大语言模型(LLM)会被其他事物商品化?

    我在想,这些数据库、画布、Excel 表格等等——如果 LLM 是你访问所有这些东西的主要入口点,是否有可能 LLM 会让 Office 商品化?

    Satya Nadella:这是一个有趣的问题。我认为,至少在第一阶段,我的想法是:LLM 能否帮助我更高效地使用所有这些工具或画布来完成知识工作?

    我见过的一个最好的演示是,一位医生准备参加肿瘤委员会会议的工作流程。她要参加肿瘤委员会会议,首先她使用 Copilot 来创建会议议程,因为 LLM 可以帮助她理清所有案例,这些案例在某个 SharePoint 网站上。它会说:“嘿,这些案例——显然,肿瘤委员会会议是一个高度关键的会议,你需要考虑不同案例的差异,以便分配适当的时间。”

    甚至仅仅是创建一个议程的推理任务,它知道如何分配时间,这非常好。所以,她用 LLM 来做这个。然后她进入会议,在和所有同事在 Teams 通话中,她能够专注于实际案例,而不是做笔记,因为现在有这个 AI Copilot 在做完整的会议记录。这不仅仅是转录,还包括了会议内容的数据库条目,以供随时回顾。

    然后,她从会议中出来,讨论了案例,而没有被做笔记分心。她是位教学医生,她想去准备她的课堂。所以她进入 Copilot,说:“把我的肿瘤委员会会议内容做成 PPT,好让我可以给学生讲解。”

    这就是这种类型的工作。我现在的用户界面(UI)和支撑框架是通过 LLM 填充的画布。而工作流程本身正在被重塑;知识工作正在进行。

    有一个有趣的事情:如果在上世纪 80 年代末有人告诉我:“你桌上会有一百万份文件”,我可能会说:“那是什么鬼?”我本来会以为桌上会有一百万份纸质文件。但事实上,我们确实有一百万份电子表格和一百万份文档。

    Dwarkesh Patel:我没有,你有。

    Satya Nadella:它们都在那儿。所以,即使是智能体,也会发生这样的事情。会有一个 UI 层。对我来说,Office 不仅仅是今天的办公室,它是知识工作的 UI 层。它将随着工作流程的演变而进化。这就是我们想要构建的。

    我确实认为,今天存在的 SaaS 应用程序,这些 CRUD 应用程序,最终会发生根本性变化,因为业务逻辑将更多地进入这种智能体层。实际上,我在 Copilot 的另一个很酷的体验是,当我说,“嘿,我准备和客户开会,”我只需要说,“给我所有相关的会议笔记。”它会从我的 CRM 数据库中提取,从我的 Microsoft Graph 中提取,创建一个合成的、本质上的人工制品,然后在上面应用逻辑。对我来说,这将改变我们今天所知道的 SaaS 应用程序。

    Dwarkesh Patel:SaaS 作为一个行业,可能每年价值数千亿美元到数万亿美元,具体取决于如何计算。如果这真能被 AI 击垮,那在未来十年里,微软的市值是否会再次增长 10 倍?因为你在谈论数万亿美元的市场…

    Satya Nadella:它还将为 SaaS 创造大量价值。也许我们没有太关注的一个方面是,世界上存在的 IT 积压问题。

    这些代码生成技术,加上可以通过智能体来查询你所有的 SaaS 应用并获取更多效用,将会带来应用程序的巨大爆炸,它们会被称为智能体,所以在每个行业、每个类别中,我们突然间就能够获得服务。

    因此,将会有很多价值。你不能停滞不前。你不能再说“哦,我对某个狭窄的业务流程做了框架设计,我在浏览器中有一个 UI,这就是我的工作了。”这种说法已经不再适用了。 你必须要站得更高,问问自己:“我需要参与的任务是什么?”

    你将希望能够将你的 SaaS 应用程序转变为一个出色的智能体,在一个多智能体的世界中发挥作用。只要你能做到这一点,那么我认为你就可以增加它的价值。

    34 年微软生涯

    Dwarkesh Patel:我可以问你一些关于你在微软工作的事情吗?

    Satya Nadella:当然可以。

    Dwarkesh Patel:做为一个公司人(company man,指的是那些长期在一家公司工作,对公司文化、历史和业务有深入了解,并逐渐通过公司内部晋升至高位的员工。)是不是被低估了?你在微软大部分时间里工作,或许可以说,你之所以能创造如此多的价值,其中一个原因就是你见证了微软的文化、历史和技术。你通过在公司内部晋升,获得了所有这些背景。是不是更多的公司应该由那些拥有这种背景的人来管理?

    Satya Nadella:这是一个很好的问题。我没有从这个角度思考过。

    在我 34 年的微软生涯中,每一年我都觉得比前一年更激动人心。并不是觉得,哦,我是个公司人,或者其他什么。我非常认真对待这一点,尤其是对于任何加入微软的人来说。并不是说他们加入微软是因为他们觉得这只是一个经济回报的平台,而是他们觉得能够利用微软平台来实现自己的使命和目的。这就是我们之间的契约。

    所以我认为是的,企业必须创造一种文化,允许员工进入公司并成为像我这样的“公司人”。至少在我的案例中,微软在这一点上做得利是大于弊端的,我希望未来依然如此。

    Dwarkesh Patel:你所说的第六任 CEO,将会使用你现在开始的这些研究,你是如何留住未来的 Satya Nadella,确保他们能够成为未来的领导者的?

    Satya Nadella:这很有意思。今天是我们的第 50 个年头,我经常在思考这个问题。我们应该理解的是,持久性不是目标,意义才是目标。

    我和我们 20 万名员工每天要做的事情是:我们所做的事情,是否对世界有用并且有意义,我们不仅要考虑今天的世界,还要考虑未来的世界。

    我们所处的行业没有特许经营价值,这是另一个难点。如果你把我们今年的研发预算拿出来,那都是在推测五年后会发生什么。基本上,你必须抱着这样的态度去做,说“我们正在做我们认为会有意义的事情”。

    所以你必须关注这个目标。然后要知道,你的打击率是有限的,你不会总是成功,你必须对失败有很高的容忍度。你必须进行足够的尝试,才能说:“好吧,作为一家公司,我们会成功的”。这就是这个行业的棘手之处。

    Dwarkesh Patel:还有两个月就是微软成立 50 周年了。如果你看一下市值排名前十的公司,或者前五名,基本上,除了微软,其他公司都比微软年轻。这个现象非常有趣,微软是如何做到在这么多年中始终保持活力的?如何不断重整旗鼓(refounding)?成功的公司往往都比较年轻。世界 500 强企业的平均寿命为10到15年。

    Satya Nadella:我喜欢 Reed Hoffman 用的那个词,refounding。这就是一种思维方式。人们常说“创始人模式”(founder mode),但 对于我们这些普通的CEO来说,更像是“重整旗鼓模式”(refounder mode)

    能够以全新的视角重新看待事物是关键。对于你的问题:我们能否在文化上创造一个环境,使得“重整旗鼓”成为一种习惯?我们每天来这里都会说:“我们觉得我们与这里息息相关,能够改变我们所做的事情的核心假设,并重新定义我们与周围世界的关系。我们给自己这个权限了吗?”我认为,很多时候,公司会觉得自己受到了商业模式等的限制。对此,你必须需要解除对自己的束缚。

    Dwarkesh Patel:如果你离开微软,你会创办什么公司?

    Satya Nadella:我会创办什么公司?天啊。这时候“公司人”的我就说:“我永远不会离开微软。”

    如果我真要做点什么,我认为选择一个有…当我看到科技的梦想时,我们一直在说,科技是最大的、最伟大的民主化力量。

    我觉得我们最终具备了这样的能力。如果你说每瓦特每美元能产生的效益,我愿意去找到一个可以应用这种能力的领域,尤其是那些服务不足的应用领域。

    那就是医疗、教育…公共部门会是另一个应用领域。如果你把这些领域,也就是服务不足的地方,作为这个国家的公民、这个社会的成员或任何地方的一员,能够受益于这种技术带来的丰富性,转化为更好的医疗、更好的教育和更好的公共部门服务,那将会很棒。

    相信AGI吗?

    Dwarkesh Patel:听了你对不同问题的回答,有一点我不太确定,你是否认为 AGI 是一个存在的事物。是否会有一种能够自动化所有认知劳动的东西,像是任何人能够在电脑上做的事?

    Satya Nadella:这是我对人们讨论它的定义有所困惑的地方。认知劳动并不是一成不变的。今天就有认知劳动。如果我有一个收件箱,管理我所有的智能体,那是新的认知劳动吗?

    今天的认知劳动可能会被自动化。那么,产生的新认知劳动呢?这两者都必须考虑到,这就是转变。

    这就是为什么我做出这样的区分,至少在我的脑海中是这样:不要把知识工作者和知识工作混淆。今天的知识工作可能会被自动化。但谁说我的人生目标是处理我的电子邮件?让智能体处理我的电子邮件,但在处理完我的电子邮件之后,再给我一个更高层次的认知劳动任务,比如,“嘿,这三份草稿是我真正想要你审阅的”。这是一个不同的抽象概念。

    Dwarkesh Patel:但 AI 能达到第二个层次吗?

    Satya Nadella:有可能,但一旦它达到了第二个层次,就会有第三个层次。当我们在历史上使用的工具已经改变了认知劳动的本质时,我们为什么还在担心所有的认知劳动都会消失呢?

    Dwarkesh Patel:我敢肯定你之前听过这些例子,比如说马匹仍然在某些事情上有用,有些地形是你无法开车去的。但认为你会看到马匹在街上跑,或者雇佣百万马匹,这种情况显然不会发生。

    然后这个问题是,类似的情况会不会发生在人类身上?

    Satya Nadella:但是仅仅在一个非常狭窄的维度上吗?按照我们今天的理解,人类开始重视某些被称为“认知劳动”的这种狭义的东西,这样的历史只有两百年。

    以化学为例。如果量子力学加上 AI 确实帮助我们做了很多新型的材料科学研究,那由它做的新材料科学研究是非常棒的。这是否会剥夺人类能做的其他事情呢?

    为什么我们不能在一个有强大认知机器的世界里生存,同时知道我们的认知能力并没有被剥夺呢?

    Dwarkesh Patel:我会问这个问题,不是关于你的,而是关于一个不同的情境,所以也许你可以在不感到尴尬的情况下回答。假设在微软的董事会中,你能看到增加一个 AI 成员吗?它能否拥有判断力、背景和全面的理解,成为一个有用的顾问?

    Satya Nadella:这是一个很好的例子。我们在 Teams 中增加了一个主持智能体。目前还处于早期阶段,我们的目标是,能否让这个主持智能体利用长期记忆,不仅仅是会议背景,还包括我们正在进行的项目、团队等背景,成为一个出色的主持人?

    我甚至希望它能在董事会会议中使用,因为董事会成员每个季度才开一次会,他们需要消化一个像微软这样复杂的公司的信息。一个能够真正帮助人们集中注意力,保持专注于重要问题的主持智能体,那真是太棒了。

    这就像你说的,回到你之前的问题,拥有一个拥有无限记忆的东西能帮助到我们。毕竟,Herbert Simon 怎么说的来着?我们都是有限理性。因此,如果人类的有限理性能够通过外部的认知放大器得到处理,那就太好了。

    Dwarkesh Patel:说到材料和化学,我记得你最近说过,你希望下一个 250 年在这些领域的进展能在未来 25 年内实现。现在,当我想到下一个 250 年可能实现的事情时,我想到的是太空旅行、太空电梯、永生以及治愈所有疾病。你觉得未来 25 年能做到这些吗?

    Satya Nadella:我提到这个的原因之一是,我喜欢那个观点:工业革命是 250 年的进程。我们必须从一个基于碳的系统转变到另一种系统。

    这意味着,你必须从根本上重塑过去 250 年里化学领域发生的一切。 这就是我希望量子计算机能够发挥作用的地方,量子计算机帮助我们发现新材料,然后我们可以制造出这些新材料,来应对我们在这个星球上面临的所有挑战。然后我也支持星际旅行。

    Dwarkesh Patel:太棒了。Satya,非常感谢你抽出时间来和我们交谈。

    Satya Nadella:非常感谢。这真是太棒了。谢谢。

    Dwarkesh Patel:太好了,谢谢。

    原文链接: https://www.dwarkeshpatel.com/p/satya-nadella

    来源:微信公众号“学术头条”

  • DeepSeek接入潮汹涌:适配商忙坏,大厂或赔惨?

    DeepSeek接入潮汹涌:适配商忙坏,大厂或赔惨?

    DeepSeek引发的蝴蝶效应还在持续。

    1月20日,DeepSeek公司正式发布了其推理模型DeepSeek-R1的完整版本。该模型通过算法优化,以较低的训练成本实现了与OpenAI推理模型o1相媲美的性能,并且开源。

    传统AI训练对算力的需求巨大,当业内普遍为AGI(通用人工智能)贴上“大力出奇迹”的标签,DeepSeek却开辟了一片“无人区”,吸引一众企业争相接入。企业接入DeepSeek,即企业通过硬件设备连接DeepSeek的访问地址,从而获取DeepSeek的模型服务。

    据不完全统计,接入DeepSeek-R1模型的国内上市公司已经超过100家,其中不乏阿里、腾讯、百度、三大运营商这类拥有自研模型和AI应用的企业。

    时代周报记者采访多位业内人士发现,企业选择DeepSeek的原因主要集中在两方面。一是DeepSeek-R1开源较彻底,部署方便,且在特定场景下展示了强大的处理和推理能力;另一方面,DeepSeek声量走高,意味着接入方有机会承接其外溢的流量。QuestMobile数据显示,DeepSeek的日活跃用户数在2月1日突破3000万大关。

    不过, 大厂接入DeepSeek模型也可能面临巨大的亏损压力。近期,AI Infra(连接硬件和上层应用的中间层基础设施)企业潞晨科技CEO尤洋指出,满血版DeepSeek-R1每百万token(输出)定价16元,如果每日输出1000亿token,一个月算下来接入方企业可获得4800万元收入。据他测算,完成1000亿token的输出,需要约4000台搭载H800的机器,以目前H800的市价或者折旧来计算,每月仅机器成本就达4.5亿元,因此企业方可能面临每月4亿元的亏损,“用户越多,服务成本越高,亏损越多”。

    AI Infra厂商市场负责人张迪(化名)告诉时代周报记者,离DeepSeek疯狂发酵仅有数周,软硬件适配、测试、上架等工程都需要时间,目前公司对外合作的项目还未落地,因此具体成本数据暂不清晰。

    在AI的潮汐效应下,接入DeepSeek是否一本万利,还需让子弹再飞一会儿。

    △图源:Pixabay

    接入模型并非“量”的比拼

    目前来看,企业接入DeepSeek的程度有所不同。

    2月13日,继微信、腾讯文档、QQ浏览器等业务侧产品先后接入DeepSeek-R1后,腾讯自研的AI助手“腾讯元宝”也正式接入DeepSeek-R1,支持用户切换使用混元大模型和DeepSeek-R1。

    相比腾讯近乎全面拥抱DeepSeek的决心,阿里等公司对DeepSeek的接入主要体现在自己的主营业务侧产品,给自研的大模型产品保留了一部分空间。如阿里的1688、钉钉、阿里云相继接入DeepSeek,其旗下全能AI助手通义APP尚未表态。

    不难发现,接入DeepSeek的企业,率先将DeepSeek应用在了AI能力运用场景较多的业务上。

    “接入模型并非‘量’的比拼,需求方应该充分考虑模型与业务场景适配性。”值得买科技CTO王云峰在接受时代周报记者采访时表示,当下大模型的应用模式愈发多样,不同模型有各自适配场景。

    此前,值得买科技自研了130亿参数消费大模型,也接入了一些主流模型,谈及接入DeepSeek的原因,王云峰解释称,值得买科技的自研模型在商品理解、价格预测等垂直领域能力出色,但AI技术的复杂性,决定了单一模型无法覆盖所有场景。例如做检索增强时,内部工具流程需AI合理调度,外部通用模型难以适配,此时自研模型就负责内部流程调度、用户意图理解等关键任务,而通用模型则用于站内文章生成这类通用场景。

    从实际落地效果来看,DeepSeek-R1的问题处理和推理能力表现出色。王云峰告诉时代周报记者,和包括DeepSeek-V3在内的其他模型相比,DeepSeek-R1生成内容的行文逻辑更清晰,文学性也更突出。其强大的语言处理能力,让公司内容生产的效率有了明显提升,“如果使用通用模型,还需要进行垂类数据微调才能更好发挥作用。”

    网络安全公司知道创宇是DeepSeek更早期的受益者。

    去年12月,知道创宇旗下的网络空间测绘引擎ZoomEye国际版同步上线了对DeepSeek的调用支持。知道创宇CSO(首席战略官)周景平向时代周报记者表示,从接入DeepSeek到现在,ZoomEye国际版的平台注册量增长28.5%,平台活跃度增长121.6%,AI 搜索功能使用率达35.8%。

    周景平在接受时代周报记者采访时难掩兴奋。他称,DeepSeek被公司应用在包括漏洞挖掘、数据情报分析、规则转化处理、自动化安全运营等多个细分业务场景中。在数据情报分析上,受益于DeepSeek等大模型数据分析及推理能力,公司可高效补齐之前所依赖的分析师知识框架之外的细节点。

    “相比GPT,DeepSeek聚焦通过低成本高性能的技术路线,降低企业接入门槛,并通过开源策略促进技术普及和产业链协同,这为国内企业级应用的爆发提供了更大的可能性。”在周景平看来,DeepSeek-V3和DeepSeek-R1利好接入企业的意义在于性价比高。他说,DeepSeek开源较为彻底,同时发布了蒸馏模型的本地量化版,这使得企业进行本地化部署的性价比大幅度提升。

    适配商等来春天?

    企业扎堆接入DeepSeek,也忙坏了位于大模型产业链中间层的适配厂商。

    张迪向时代周报记者表示,DeepSeek爆火后,公司往来的咨询者日益增多。“以前一两个月才有一位前来咨询业务的客户,现在我们每天要接待十几个。”张迪称,现在几乎每天都需要加班,除了应对业务咨询,还要参与直播、客户验收、商务对接等工作,公司和小组的会议往往被安排在晚上8点和9点。

    张迪称,DeepSeek大火之前,大家对私有化部署仅仅停留在探讨产品功能的层面,而如今公司的咨询者,或许在焦虑的驱使下,合作目的更加明确,双方谈话主题大致锁定在为提需求、了解产品性能、给报价三个方面。

    另一AI Infra厂商的创始人赵欣向时代周报记者表示,需求大涨,行业工作节奏普遍加快,“有人手里拿着钱排队等你的产品,肯定要比没事做的时候兴奋。”他表示,产品走向市场,真正地为人所用,也是个人价值层面的正向反馈。

    此前,有分析人士向时代周报记者称,因国产算力适配成本较高,在英伟达的芯片稀缺情况下,使用国产算力的企业接入DeepSeek可能要面临一定财务压力,继而影响到中间层厂商的发展前景。

    尤洋向时代周报记者拆解了企业接入DeepSeek的路径,他表示,DeepSeek是开源模型,接入方只要有算力就可以部署运行。

    尤洋说,算力的主流提供方式一般有两种,一种是企业自有算力,比如有本地的一体机或者机房;另一种是公有云上的算力,企业可以按月租用。除此之外,有一些云厂商还提供MaaS(Model as a Service)的模式,也就是将DeepSeek模型部署到公有云上后,需求企业再调用DeepSeek API,按实际使用的token量付费,适合早期的轻量化探索需求。

    企业接入DeepSeek的成本主要分硬件和部署成本两部分。

    硬件成本方面,不同规格的硬件价格差异较大,相同规格不同规模的硬件价格也十分不同。“对于仅需要使用模型的企业来说,选择推理芯片会有效降低硬件成本;而对于有微调和训练要求的企业,可能在购买或租赁硬件时需要使用训练芯片。另外,对于并发数量或者输出速度要求较高的企业,需要选择有充足算力和显存的芯片,这类芯片的价格会偏高。”尤洋表示。

    而部署成本的区别除了体现在不同规格芯片的部署难度上,还和企业的具体要求有关。比如,如果企业需要高并发、接入知识库、接入联网功能等,都会存在较大的工作量。

    “对于满血DeepSeek-R1 671B模型来说,本地化部署的硬件成本在百万级别,一般来说是远高于部署成本的。有些中小型企业会使用蒸馏版的模型,或者是直接调用云厂商的API,这样适配成本就会低很多。”尤洋补充道。

    对于业内的成本担忧,赵欣称,目前公司客户以中小型企业和传统行业的大型企业为主,虽公司体量、业务不同,所牵涉的成本数据也存在较大差异,但从目前的适配案例来看,客户企业一般都具备承担该项成本的能力。

    来源:微信公众号 “时代周报”

  • 一群技术人拉横幅围堵OpenAI,不禁AI就一直闹

    一群技术人拉横幅围堵OpenAI,不禁AI就一直闹

    近日,据外媒消息,一群活动人士于上周六在美国旧金山集会,成立了名为 “停止人工智能”(Stop AI)的非暴力公民抵抗组织,旨在阻止人工智能进一步发展,尤其是针对通用人工智能(AGI)。OpenAI 将 AGI 定义为在多数经济价值工作中超越人类的高度自主系统,而该组织认为其影响巨大且危险,希望能彻底禁止。

    Stop AI 在其网站上公布了一系列目标,包括要求政府强制人工智能公司关停与通用人工智能模型创建相关的一切工作,销毁现有模型并永久禁止其开发。不过,他们并非要禁止所有人工智能,而是仅针对那些威胁人类生存的部分。

    矛头对准 OpenAI 

    在具体行动策略上,Stop AI 主要通过组织抗议活动来扩大影响力。例如,他们在近日又开始“围攻”OpenAI 位于旧金山的总部进行抗议。此前,该组织已在 OpenAI 办公室及其他地方举行过多次抗议活动。其中,两位联合创始人 Sam Kirchner 和 Guido Reichstadter,因在去年 10 月封锁 OpenAI 的入口被捕。

    Stop AI 成员 Finn van der Velde——一位具有计算机科学和人工智能技术背景的安全倡导者及活动人士,表示要阻止 AGI 出现,可能需要一项国际条约,各国共同约定不开发 AGI,这意味着要解散像 OpenAI 这样以开发 AGI 为目标的公司,同时监管计算能力,防止有人训练出 AGI 模型。

    在抗议活动中,也有人呼吁对 OpenAI 前雇员、侵权举报人 Sunchir Balaji 的死亡展开进一步调查。

    2024 年 11 月,Balaji 被发现死于其位于旧金山的公寓中。但 Balaji 的父母表示,他们不相信儿子是自杀身亡,他们希望外部机构调查儿子的死因。

    26 岁的 Balaji 的父母表示,他们仍对儿子的死因存有疑问。他们说,11 月 26 日,Balaji 被发现死在旧金山的公寓里,身上有疑似枪伤的痕迹。旧金山警方表示,这似乎是一起自杀事件,初步调查中没有发现谋杀的证据。不过,他的母亲说,他的公寓里有些东西不对劲。

    “密码驱动器不见了。他的电脑坏了。他的台式电脑已经开着三天了。一切都乱七八糟,”Balaji 的母亲普尔尼玛·拉玛劳(Poornima Ramarao)说道。

    Balaji 于 2020 年开始担任 OpenAI 研究员,辞职后,他公开声称该公司在开发 ChatGPT 时违反了版权法。他的父母说,在他去世前四天,他被传唤为一起针对 OpenAI 的案件作证。

    Stop AI 认为,Balaji 的死亡可能并非自杀而是被杀,被杀的原因就是为了阻止他说出 ChatGPT 版权问题的真相。

    Stop AI 提到了对人工智能巨头寻求创造“超级智能”的道德担忧。

    Stop AI 是谁?在做什么? 

    Stop AI 由联合创始人 Sam Kirchner 和 Guido Reichstadter 领导,目前已经在 OpenAI 办公室外进行过抗议活动。当地时间周六下午, Stop AI 在科技公司 OpenAI 外举行示威活动,他们担心该公司的技术可能会导致 “人类灭绝”。他们设定了一个大胆目标,希望能获得美国 3.5% 人口(即 1100 万人)的支持

    Stop AI 的成员来自于计算机、机械和数学相关领域。

    创始成员 Sam Kirchner 拥有机械和电气工程背景,而 Reichstadter 则曾担任珠宝商 20 年,并获得了物理和数学学士学位。其他小组成员也有一些技术背景:Finn van der Velde 拥有计算机科学学士学位,具体来说是人工智能,并离开了拉德堡德大学的人工智能硕士课程,“以从事人工智能安全工作”,正如他的 LinkedIn 个人资料所示。Derek Allen 会编程。Kirchner 表示,一名兼职小组成员丹尼斯目前正在攻读人工智能硕士学位。

    Stop AI 的 Sam Kirchner(左)和 Guido Reichstadter 在 Silverstone 咖啡馆

    他们坚信,人类的思维应当始终处于智能领域的最前沿。

    Stop AI 发起抗议和公民抵抗行动,目的是让公众了解到,尽管旧金山的人工智能科技公司承认通用人工智能存在导致人类灭绝的风险,但仍在推进相关研发。有专家甚至预测,通用人工智能可能在今年就会问世。他们强调,人工智能存在极大危险性,所谓的人工智能安全只是幻想,无法通过实验证明其不会产生危害人类的想法,这与人类曾经导致其他物种灭绝的情况类似。此外,通用人工智能还可能对民主制度造成永久性破坏,同时导致大规模失业,使许多人失去生活目标

    对于人工智能的发展,业内看法不一。部分从事人工智能工作的人员认为,研发通用人工智能 / 超级人工智能(AGI/ASI)可以帮助解决如癌症治疗、气候变化等难题。但 Stop AI 反驳称,在无法确保其永远安全、不会危及人类生存的情况下,进行此类研发毫无意义,毕竟从实验角度证明其安全性是不可能的。

    目前,关于通用人工智能的研发与限制争议不断,其未来走向备受社会各界关注。

    值得一提的是,截至目前,Stop AI 已经筹集了 6685 美元资金。

    AI 发展引争议:期待与恐惧并存 

    “……我们正试图永久禁止通用人工智能(AGI)的发展,”Kirchner 在接受 The Register 采访时表示。“粗略地说,AGI 指的是在所有技术领域都比所有人类专家更强大的系统。”

    AI 大神杰弗里·辛顿 (Geoffrey Hinton)曾预测,未来 20 年内人工智能超越人类智能的可能性约为 50%。与其他人工智能反对者一样,Kirchner 也担心人类会失去控制。

    Kirchner 对人工智能发展的担忧并非个例。早在大语言模型爆发之前,埃隆·马斯克 (Elon Musk)在 2014 年就曾提到过,利用 AI,就像是在“召唤”恶魔……

    2014 年,马斯克在一次公开场合谈及人工智能的发展时表示:“我认为我们应该对人工智能非常谨慎。如果让我猜一下我们最大的生存威胁是什么,那很可能就是这个(AI)。”

    随着人工智能技术的快速发展,人们对其潜在影响的看法呈现出两极分化的态势,既有着深切的担忧,也不乏对其积极作用的认可。许多人认为意识是极为复杂独特的现象,人工智能难以企及,它本质上只是进行统计计算的机器,缺乏感受、情感和理解能力,一切行为皆按程序执行,与人类拥有自由意志截然不同。尽管目前关于人工智能 “安全性” 的争论不绝于耳,但许多人对其安全的具体范畴仍感到困惑。

    当前,人们对人工智能的担忧主要集中在两个方面。其一,人工智能生成虚假内容的能力可能带来严重危害。在政治领域,虚假信息本就泛滥,人工智能的介入可能使情况雪上加霜,进而引发法律问题,例如无辜者被误指犯罪,有罪者却借此获取不在场证明;在金融经济领域,也可能引发欺诈、敲诈勒索等问题。并且,人工智能对社会潜在危害的方式众多,许多仍有待发现。

    其二,人工智能可能导致大规模失业。以好莱坞编剧罢工事件为例,编剧们担心自己会被人工智能生成的剧本替代,尤其是当他们过往的作品被用于训练人工智能引擎时。同样,艺术家们也忧心人工智能生成的图像和音乐将取代自己的创作。此外,像体育赛事摘要这类常规工作,几乎肯定会被人工智能接管。

    不过,人工智能也展现出了巨大的积极潜力。在医疗领域,人工智能可以通过对海量医疗数据的分析,帮助医生更准确地诊断疾病,预测疾病的发展趋势,甚至协助研发新的药物。例如,一些人工智能系统能够快速识别医学影像中的异常,提高癌症等疾病的早期诊断率,为患者争取宝贵的治疗时间。

    在交通领域,自动驾驶技术作为人工智能的重要应用之一,有望大幅提高交通安全性和效率。通过传感器和算法,自动驾驶汽车可以实时感知周围环境,做出更快速、准确的驾驶决策,减少人为失误导致的交通事故。同时,智能交通系统还能优化交通流量,缓解拥堵,降低能源消耗。

    在人工智能技术持续革新的当下,如何平衡其发展与潜在风险,成为全社会亟待思考的重要议题。

    参考链接:

    https://x.com/liron/status/1803435675527815302?t=GM7jv516WqvRAA_q4vEBzQ&s=19

    https://www.ktvu.com/news/parents-openai-whistleblower-want-outside-investigation-sons-death

    https://www.ktvu.com/news/parents-openai-whistleblower-want-outside-investigation-sons-death

    来源:微信公众号“AI前线”

  • 隔着屏幕恋爱的年轻人 ,正用AI对抗孤独

    隔着屏幕恋爱的年轻人 ,正用AI对抗孤独

  • DeepSeek一体机,政企AI的“蒸汽革命”

    DeepSeek一体机,政企AI的“蒸汽革命”

    近两周以来,DeepSeek一体机,成为政企IT市场的一大消费亮点。

    华为昇腾、中科曙光、浪潮信息、联想、新华三等60多家IT厂商,密集推出了适配全模型的DeepSeek一体机。产品发布速度,堪称前所未有。

    蒸汽机一声轰鸣,世界从此进入工业时代。那么,政企客户买个一体机,按下开机键,是否就意味着步入DeepSeek时刻呢?这显然是不可能的。

    我们都知道,瓦特改良蒸汽机之后,还伴随着铁矿石的开采,火车铁轨的铺设、纺织业的发展、工人阶级的出现等诸多条件,才形成了轰轰烈烈的工业革命。

    DeepSeek一体机部署之后,政企才开始触及深水区——异构算力如何兼容?DeepSeek与业务场景怎么结合?AI人才缺失,一体机集群后期谁来维护?

    当DeepSeek技术平权撞上政企智能转型,IT厂商要同时扮演发明家、工厂主、铁道工和列车长,才能让一体机成为政企AI所期待的一部蒸汽机。

    本文就来聊聊,关于DeepSeek一体机,IT厂商应该如何有所作为。

    DeepSeek AI一体机的“瓦特时刻”

    有了DeepSeek的一体机,究竟发生了什么变化?我们可以把这看作一场瓦特蒸汽机PK纽科门蒸汽机的竞赛。

    纽科门蒸汽机出现得更早,但在瓦特改良之前,效率不好,无法规模化应用。而瓦特蒸汽机大幅提升了动力效率,让蒸汽机可以应用于纺织、矿业、交通等多个领域,推动了工业生产的规模化和效率化——DeepSeek,就是AI一体机的“瓦特时刻”。

    一来,DeepSeek让政企对大模型的需求暴涨。由于数据隐私,政企本地化部署AI的需求始终存在,ChatGPT爆火之后,大模型一体机就被IT厂商推向政企市场,解决训练算力不够用、数据防泄漏不出域等问题。而DeepSeek的优异性能表现,让政企引入DeepSeek的需求井喷,亟需稳定高可用的方案,通过采购一体机来使用DeepSeek,自然成为首选。

    二来,DeepSeek提高了私有化部署的投入产出比。此前,GPT-4等大模型的超大参数、超大数据、超高算力消耗,导致本地部署的投入大、回报不确定,一体机的经济价值不高,让不少中小企业望而却步。而满血版DeepSeek,一台单机就能完成实时推理,还能规避未来模型收费的可能,选择一体机的投资回报比,明显增强了。

    另外,政企还有一个现实的考量,借助DeepSeek一体机减少对云的依赖。

    此前,企业想要用高质量大模型,基本都得通过云。尤其是中小微企业,更愿意选择云+API的方式来引入AI,按需灵活付费,规避购买一体机、自建算力集群的前期高投入。

    但上云用AI也有一些限制,比如要跟云生态深度绑定,企业会感觉不够自由,选择权小了;然后是服务收费项目多了,大规模调用云API的tokens消耗也很大,还有订阅费、云存储、MaaS服务费等其他支出,一算总账也没少花钱。而且,大模型的实时推理,高度依赖于云服务的可靠稳定,一旦云服务宕机或者繁忙了,企业“智商”就跟着一起掉线。

    开源的DeepSeek,在性能上不输云厂商的闭源大模型,直接拿来就能用,再结合一体机的本地算力,政企可以绕开上云的种种限制,轻松结合私有数据Fine Tune专有大模型,想怎么用就怎么用,没有后顾之忧。

    这种背景下,DeepSeek之于一体机,相当于瓦特改良蒸汽机,从此进入实用化、商业化的新阶段。

    DeepSeek之外, AI一体机的能力补全

    在“大家都发DeepSeek一体机,那我也发”的抢位赛中,冷静下来想一想,卖一体机,光有DeepSeek就够了吗?

    试想一下,一间工厂摆满了由蒸汽发动机驱动的纺织机,但工人不会用、日常管理不到位,后续也没有铁路把布匹运出去,那就算有先进的机械,也无法提升企业的生产力。

    同理,政企客户想在业务中用好DeepSeek,需要的不仅仅是几台一体机,还需要搭配算力管理调度平台、AI开发工具、运维服务等一系列能力,来协同发挥作用。这意味着,IT厂商不仅要“卖铲子”,还得在其他环节下功夫,真正把DeepSeek等大模型送入政企客户的业务场景。

    结合政企使用大模型的步骤来看,IT厂商卖DeepSeek一体机,算法之外的能力也不能存在短板。

    能力一:高算力利用率。

    DeepSeek进入政企的门槛,首先是算力。作为推理模型,DeepSeek的实时推理,不仅要用更少的机器,提高资源利用率和计算效率,还要优化推理速度,缩短计算时间。

    目前,基于华为昇腾、海光、百度昆仑芯等国产芯片打造的DeepSeek一体机,都对推理性能进行了优化。中国电信推出的息壤智算一体机,基于华为昇腾完成,借助自研推理加速引擎,将DeepSeek的性能发挥到极致。浪潮元脑R1推理服务器则支持昆仑芯算力芯片,并进行深度优化,解决DeepSeek R1 671B模型在部署中的资源瓶颈问题,显著提升了推理效率。

    除了昇腾、昆仑之外,大多数国产AI芯片是以混合异构的方式来支持一体机。因此,不少厂商也具备异构算力适配的技术能力,比如IT巨头联想、新华三、中科曙光,都提供统一的异构智算推理服务与解决方案,新晋服务商如京东云,其DeepSeek一体机也支持华为昇腾、海光、寒武纪、摩尔线程、天数智芯等多款国产芯片,中国联通也基于联通云的“星罗” 先进算力调度平台,让DeepSeek一体机深度适配国产算力芯片。

    总体来说,不搞单纯的算力堆叠,而是支持包括国产在内的多厂商、多型号GPU/NPU算力资源,充分释放推理性能,成为IT厂商售卖DeepSeek一体机的必要条件。

    能力二:工具全栈化。

    DeepSeek落地政企,还需要融合专有数据、行业知识等进行微调,这时候就需要趁手的工具。

    华为昇腾DeepSeek一体机,就融合了华为DCS AI全栈式解决方案,内置了华为的全栈AI能力,提供覆盖数据工程、知识精调、部署、调优等全流程的工具链ModelEngine,减少政企在模型对接中的繁琐适配工作,快速把DeepSeek用起来。

    DeepSeek很优秀,但大模型的进化速度也很快,让AI一体机具备可演进性,降低政企AI的综合使用成本,因此支持多样化的大模型也很重要。

    目前主流厂商的DeepSeek一体机,抱着“一只羊也是赶,两只羊也是放”的态度,也同时预置了多款主流大模型。中科曙光的超融合一体机不仅全面适配了DeepSeek V3、DeepSeek R1和DeepSeek Janus Pro等系列模型,还兼容了Qwen2.5、LLama3.2、ChatGLM等主流开源模型,灵活支撑政企多样化的业务需求。

    能力三:交付高效率。

    在各行各业争先恐后落地DeepSeek的背景下,一体机必须破解“上线周期长、部署效率低”的困境。在主流IT厂商的努力下,政企部署DeepSeek一体机基本可以做到“拎包入住”。

    Xinference基于华为昇腾打造的DeepSeek 一体机,预置了 DeepSeek全系列模型和100+ 最新模型,政企客户无需投入大量时间和精力进行技术准备,一键即可部署与调度。宁畅DeepSeek 大模型一体机解决方案预装算力集群、网络与安全组件,让DeepSeek复杂的部署流程变成“交钥匙工程”,减少了政企的部署周期和降低时间成本。浪潮信息的元脑R1推理服务器,支持智能客服与对话、文本分析、工业质检、医疗影像识别等场景快速适配,企业无需从零开始摸索,显著缩短了AI应用上线周期。

    IT厂商高效交付,政企业务创新就快人一步,这对争夺DeepSeek热点的各行业企业十分有吸引力。

    上述能力,与DeepSeek一体机一起,让AI变得拿来即可用,用后即增值,真正为政企提供了一条高效、可靠、有性价比的智能化升级之路。

    让DeepSeek落进现实,一次中国智算的饱和输出

    随着DeepSeek满血版模型实现单机部署,企业AI应用的边际成本已降至0.03元/千token,真正开启了AI普惠时代。

    从这个角度来说,DeepSeek一体机是技术平权的开始,让政企得以打破算力桎梏、云生态捆绑、本地部署困境等诸多难题,第一时间拥抱先进算法模型,把最新最好的智能发动机装进了自己的生产场景中。

    可以说,DeepSeek一体机,是政企智能化的一条捷径。但换个视角,AI算法与算力基础设施,是不会自己跳到政府、工厂、学校、银行里的……让AI落进现实,其实没有捷径,而是一条在时间长河里逐渐清晰的国产智算之路。

    从供给端看,没有华为昇腾、百度昆仑、海光DCU等国芯的久久为功,没有浪潮信息、联想、新华三等打造异构智算平台,今天DeepSeek一体机只能依靠海外算力,全国产化几乎不可能。

    从需求端看,没有政企多年的智能化探索,以及各行业对DeepSeek的高度接受,DeepSeek一体机也不可能在半个月的时间内,实现市场需求的爆发。让已经部署一体机的企业继续高歌猛进,让此前选择云化AI的企业重新审视策略。

    智能中国一路走来,AI已经成为各行业中真实存在的生产力,才能在DeepSeek的市场诱因出现的瞬间,快速汇聚国产智算力量,催熟DeepSeek一体机,像蒸汽机一样,成为可以低门槛、高效率应用的千行百业生产力底座。

    这个角度看,DeepSeek一体机的密集喷发,并不是追热点,而是国产开源算法与国产智算的风云际会,应和了时代需求的一次饱和式输出。

    GPT和DeepSeek的潮水退去,新的模型又会涌来,而没有短板的国产智算,支撑着AI一体机的核心产品价值,推动第四次工业革命不可或缺的那部蒸汽机,持续进化。

    来源:微信公众号 “脑极体”

  • AI短剧,起风难

    AI短剧,起风难

    短剧赛道越来越卷,卷着“美学”的同时,技术也没有停歇,AI短剧正在批量化进入市场。

    抖音九五二七剧场在春节档上线了首部AI动画短剧《无名特工队》;随后,快手星芒短剧拿出了首部AI单元剧集《新世界加载中》先导片;紧接着,红果也拿出了首部工业级AI短剧《玄幻:从拉二胡开始》;风芒也不甘示弱地在近期推出了中国首部AI东北奇幻短剧《兴安岭诡事》……

    《玄幻:从拉二胡开始》剧照

    各个平台纷纷抢先拿出“首个”话术,争抢AI短剧的头把交椅。

    与此同时,从日漫画风到黏土动画,从真人互动到类型多样,相比去年《山海奇镜之劈波斩浪》《三星堆:未来启示录》等短剧代表,进入2025年,AI短剧的呈现效果也有了更长足的进步。

    这背后自然是过去一年多来AI大模型所带来的文生视频技术跨越式发展。 从OpenAI的Sora展现出的惊人画面生成能力,到快手可灵AI和抖音即梦AI等国内大模型在视频生成领域的持续突破,AI技术正以前所未有的速度重塑着内容创作的边界。

    可灵AI与即梦AI生成案例

    不过,当目光从那些令人眼花缭乱的特效中抽离,一种微妙的违和感却始终挥之不去。就像一个精心打扮的机器人,浑身上下透着高科技的光泽,却在试图模仿人类的笑容时,总归差那么一点意思。

    违和感的凸显,恰恰道出了当下AI短剧的本质困境——缺乏具有现实感的画面表现,同时也很难通过流畅连贯的镜头运动来叙事。

    如果不是因为这些内容打着AI制作(同时也需要大量人力参与)的标签作为噱头瞬间让人降低了标准,事实上目前大部分AI短剧都很难称得上是及格线以上水准的影视创作内容。

    《兴安岭诡事》剧照

    这当然有大量创作工具依然处在快速迭代的早期阶段的原因,但另一方面,内容制作门槛的降低并不代表着更多好内容会天然出现。就像过去七年里每一代新iPhone都会强调自己的影视级摄像功能,但苹果每一年请名导制作的春节宣传片,在用最新的iPhone拍摄之外,都会在片尾打上一行小字“使用额外设备及软件,经专业编辑”,以提醒观众切勿关于当真。

    内容创作行业从来不缺乏趁手好用的工具,但精妙的创意、灵光一闪的设计、从传统中汲取灵感的手法恰恰才是创作最稀缺的部分,而就目前来看,不论长短,这些稀缺的部分终归还是只能由极少数人来完成。

    01 “炫技”的不同路线

    相比于过去一年里真人短剧的狂飙突进,AI短剧更多还是锦上添花式的存在,不过即便如此,抖音和快手两大短视频平台在这一局部战场的较量中也展现出了截然不同的策略取向。

    抖音选择了一条相对稳健的“人机协同”路径,将AI技术主要应用于提升制作效率和特效呈现。

    去年7月,抖音与博纳影业合作了AI短剧《三星堆:未来启示录》上线,相比很多打着“纯AI制作”噱头的内容,这部AI短剧反而保持了传统影视创作的核心框架,同时借助即梦AI的技术能力突破特效瓶颈。

    《三星堆:未来启示录》剧照

    该策略使得作品在保持一定艺术水准的同时,也体现了当下AI技术的价值。 全网过亿的播放量显示出观众对这类作品不乏好奇。

    与此同时,抖音在AI短剧领域的布局并非完全依靠平台自制。 成都影视硅谷也有不少初创公司在进行相关探索,从《觉醒》到《卡萨布兰卡》,再到《科灵石之科幻馆奇妙夜》,抖音在今年的短剧春节档也加入了《觉醒》团队悟空AI制作的又一部AI短剧《太阳坠落之时》,试图进一步打开局面。

    相比之下,快手则采取了更为激进的技术路线。 《山海奇镜之劈波斩浪》的制作模式堪称激进,99%的镜头由AI生成,展现了可灵AI在多个技术维度的突破性进展。

    《山海奇镜之劈波斩浪》剧照

    从人物与风格一致性、口型匹配到多场景风格生成,再到复杂场景处理,快手在技术边界的探索上走得更远。 特别是在制作效率方面,仅用两个月就完成全片制作的速度,颠覆了传统影视行业的认知。这种以技术创新为导向的策略,某种程度上重新定义了短剧创作的可能性。

    最新上线的快手AI单元剧集《新世界加载中》先导片,也能看到可灵AI在技术层面的迭代,不少先前明显存在的技术问题已经得到了明显改善,不过能否将短片中的效果应用到篇幅更长的剧集中去,仍然还需要观察。

    而国内另一个热衷于AI短剧制作的平台,反而不是互联网公司,而是国家队央视。 去年一年里中央广播电视总台影视剧纪录片中心制作的《中国神话》《英雄》《爱永无终止》《奇幻专卖店》《印记》等多部AI短剧,虽然其中水平参差不齐,却也显示出主流媒体平台对于新技术的快速应用。

    《中国神话》剧照

    不过只要稍微多看几部当下流行的AI短剧,抛开所谓的“AI制作”真正关注到内容本身时,就不难发现当下的AI短剧存在的短板实在过于明显。

    首先是在视频质量和真实感方面,AI生成的内容仍普遍存在“恐怖谷效应”,特别是在人物表情、动作连贯性等细节表现上,常常会出现不自然的违和感。

    其次,即便是采用“人机协同”的创作模式,AI短剧还是需要大量快速剪辑来规避其无法实现线性动作的问题,导致在情感共鸣和叙事张力的营造上,AI短剧与传统作品相比仍有明显差距。

    部分AI短剧截图

    炫技之外,AI短剧到底能够为整个内容创作行业带来什么新方向,就目前而言似乎无人能够明确回答这个问题。

    02 被忽视的“房间里的大象”

    在这一波的AI短剧热潮中,有一个问题却始终被回避:观众到底需要什么样的内容?而如今的AI到底能够创作出什么样的作品?

    当前的AI短剧内容类型其实已经呈现出一个有趣的现象:几乎所有AI短剧的故事都集中在科幻、玄幻等特效密集型题材。

    这种现象的出现绝非偶然,反映的其实还是当下大模型技术支撑下文生视频的技术局限。

    AI技术在视觉奇观的创造上确实有其独特优势,但在捕捉生活细节、刻画人物情感这类更需要“人味”的领域,却明显有些力不从心。而在现实中,古装创越、都市奇情、家庭伦理等现实题材可以说是短剧市场的热门主流。

    《奇幻专卖店》剧照

    题材与技术之间的错位,某种程度上限制了AI短剧的发展空间。

    可以说就目前来看,AI短剧更多还是短剧市场的一种边缘类型补充产品,一方面虽然AI短剧看似让制作门槛降低,但由于目前的技术限制,想要做出具有流畅叙事性的作品,依然需要大量人手。

    像是快手可灵AI出品的春节档AI短剧《灵蛇》,片尾的演职员表并不是只有两三个人加AI,从视效到美术再到后期剪辑、调色,同样缺一不可,只不过这些传统影视岗位现在前面大都加上了AI而已。

    另一方面,AI短剧更多还是偏向实验性的作品为主 ,例如《新世界加载中》就更像是AI版的《爱、死亡、机器人》,问题是后者再有大卫·芬奇的加持下,也能明显看出从第一季之后逐渐陷入创意枯竭和自我重复,那么很难想象当下依然还需要从海量人类作品中学习的AI是否真的能够跳出窠臼实现创意突破。

    《新世界加载中》剧照

    此外,AI短剧还面临着一系列亟待解决的问题,那就是在版权方面的风险尤其值得警惕。 今年年1月,爱奇艺将AI文生视频创业公司MiniMax告上法庭,指控其在模型训练中使用未经授权的版权内容。

    这一案件揭示了AI内容生产的深层隐患:当前众多AI模型的训练数据都可能涉及版权争议,潜在的法律风险其实也会在很大程度上影响AI短剧的商业化进程。毕竟,没有哪个平台或投资方会愿意承担可能的侵权责任,这其实也会直接影响着资本市场对AI短剧的信心。

    也是在Sora正式发布了两三个月后,好莱坞始终对其态度冷淡的核心原因,毕竟没有人愿意在需要获得明确商业回报的作品中加入AIGC内容这种具有一定不可控风险的元素。

    03 不妨先让AI从“编剧”做起

    说到底,AI短剧的困境不在于其实并不在于技术水平,而在于它与内容创作这个命题之间的根本性矛盾。内容创作从来不是简单的信息组合,而是创作者对生活的观察、对情感的理解、对价值的思考,以及最重要的是不是真正有不得不表达的强烈需求。

    这些恰恰是当前AIGC最难以企及的领域,因为你很难要求AI去表达什么。

    昆仑万维开源中国首个面向AI短剧创作的视频生成模型  SkyReels-V1生成的视频

    在这个背景下,DeepSeek在2025年初的火爆出圈,或许提供了一个更为务实的思路。

    相比直接用AIGC工具进行端到端的视频生成,不如将AI技术的应用重点放在前期剧本创作和后期制作环节。渐进式的应用策略,既能充分发挥AI在创意激发和技术辅助上的优势,又能保留人类创作者在情感表达和艺术把控上的主导地位。

    实际上,当前的“纯AI生产”更多还是营销噱头,当我们跳出“AI短剧必须全程依赖AI”的思维定式,会发现还有很多可能性值得探索。

    像是利用AI进行剧本创意发散和结构优化、逻辑梳理,用AI技术提升后期特效制作效率,或者在细节修补和画面优化上应用AI工具。“点状应用”的方式,可能比追求“一步登天”式的全流程AI化,更容易获得实质性突破。

    AI剧本编写工具: AI Screenwriter

    这并不意味着AI短剧没有未来。恰恰相反,它很可能在重塑内容生产方式以及创意验证上发挥重要作用。

    但这个角色更可能是“助手”而非“主角”:在特定场景下提供技术支持,在特定题材上发挥独特优势,而不是试图完全取代传统创作。

    以此来看,当下的AI短剧之争,其实远远没有进入到商业价值讨论的范畴,更多还是在技术探索以及内容实验的领域探索。在这场探索中,真正的赢家或许不在于谁能做出最炫目的特效,而在于谁能最先认识到:技术终究是为内容服务的,而不是相反。

    对于整个内容行业来说,放下对全流程AI化的执念,转而探索AI技术与传统创作的最佳结合点,或许才是一条更务实且经济的发展道路。

    来源:微信公众号 “壹娱观察”

  • AI手机迎来“DeepSeek时刻”?

    2025年将是AI商业化落地元年,智能手机行业的争夺战尤其激烈。

    苹果CEO库克曾表示,在已开放使用Apple Intelligence技术的国家内,iPhone 16系列销量更高。而iPhone 16销量平淡,则被认为是因为AI技术在部分地区未能应用。

    2月20日iPhone 16e的发布会上,苹果强调将在今年4月推出支持简体中文在内的多语言版Apple Intelligence。

    △ iPhone 16e:最廉价的苹果AI手机

    苹果在国内的AI功能,经过数次传言变化,最终合作方花落阿里巴巴。后又有传出百度或将合作,开发处理图像和文字的AI搜索功能,以及提升中文版 Siri 的体验。

    在此之前,国内主流手机品牌们已然来了一次“DeepSeek大团建”。就在三四天内,华为、荣耀、vivo、OPPO、小米等厂商纷纷高调接入DeepSeek-R1。

    自从去年AI手机的概念愈加火热,几乎所有的主流手机厂商都推出了自己的AI技术,试图将其转化为用户换机的驱动力。

    而随着苹果国行AI能力即将落地,以及各家国产手机厂商对DeepSeek的融合部署,手机厂商们在中国市场的AI大战,即将进入正面交锋。

    AI战场

    AI手机已然进入正面交锋的新阶段。

    为了按照计划在中国大陆推出Apple Intelligence,苹果和国内多家厂商进行过洽谈,最终花落阿里巴巴,原本传言的合作伙伴百度,或将负责开发处理图像和文字的AI搜索功能。三星宣布与智谱的Agentic GLM合作在新手机Galaxy S25搭载AI能力。

    对苹果而言,在中国找到合适的AI合作伙伴至关重要,这影响到其市场份额的波动。中国是苹果仅次于美国的第二大市场,过去两年,苹果在华收入持续下滑,2025年财年第一财季(2024年第四季度)同比下降了11%。

    从进度上看,两家世界级智能手机巨头在中国国内的AI能力还需要时间进行适配开发。相比之下,国内手机厂商在AI上的进度就有所超前,并且信心倍增,这源自春节期间DeepSeek在全球范围内的火爆。

    DeepSeek大模型的优势在于,能够用较低的训练成本实现高性能推理,并且开源路线可以令企业根据自身需求进行个性化定制,补足自身在大模型研发实力上的短板。

    2月5日,华为率先在纯血鸿蒙系统中的小艺App上,上架了DeepSeek-R1智能体测试版,并于几天后升级为正式版,还新增了“联网搜索”功能。

    随后在2月8日上午,荣耀也宣布正式接入DeepSeek,系统版本MagicOS 8.0以上用户,可将YOYO助理升级到最新版本,与DeepSeek-R1进行流畅对话。

    vivo也官宣旗下蓝心大模型将与DeepSeek融合,可提供图片生成、AI文本创作、AI问答等功能。

    2月20日,OPPO发布折叠屏旗舰Find N5时,宣布小布助手将接入满血版DeepSeek,支持深度思考、联网搜索,并且用户无需下载和多步打开。

    2月23日,小米超级小爱也上线了DeepSeek-R1,默认使用联网搜索,输入“打开深度思考”即可开启。

    过去一年,各大手机厂商纷纷加速布局AI技术,华为有“盘古大模型”,小米有“超级小爱”,vivo有“蓝心大模型”,OPPO有“AndesGPT”,荣耀有“魔法大模型”等。

    竞逐之下,各大厂商挖掘出不少功能花活。如AI修图,将一张照片中不需要的人物、景物抹去,AI填补空白降低违和感;AI翻译、自动字幕等功能可以在浏览视频时提供便利;AI语义总结等功能可以帮助提高办公效率。

    有DeepSeek加持之后,体验无疑将更上一个台阶,只是用户下载DeepSeek APP也能体验大多数功能,手机厂商官宣接入并不具备独特性。

    但箭在弦上,DeepSeek这趟车不得不上。这其实展现了行业的一个困境——对于智能手机的配置迭代,数码圈里最常说的就是“我可以不用,但你不能没有。”

    在长焦微距、超声波指纹、四等边全面屏等各种配置上,都经历过网友们如此严苛的检验,当前最火的的AI也同样如此,谁家缺席了AI功能,就等于掉队了,因此没有哪家手机厂商敢怠慢。

    DeepSeek时刻?

    AI的前景无疑是光明的。据Canalys预计,2024年,AI手机渗透率将达到17%,预计2025年AI手机渗透将进一步加速,推动全球渗透率将达到32%。

    尽管从数据来看,AI像是智能手机市场增长的推动力,但细想之下,不如说AI是手机厂商在创新“黔驴技穷”的情形下,紧紧抓住的救命稻草。毕竟如今凡是新推出的机型,都会将AI能力作为重要宣传点。

    iPhone因开创了智能机时代,之后在各行各业的发展关键节点,都会以“iPhone时刻”作比喻,此时此景,是否意味着国内智能手机行业迎来了“DeepSeek时刻”?

    这还需要从DeepSeek带来的功能加成,以及后续的影响来分析。

    回想之前的大模型,其主要作用是回答一个简单问题,辅助用户获取筛选后的答案。这不仅对用户输入的提示词要求颇高,对于涉及多方面、多步骤的复杂问题,还需要用户一一拆解分别提问,最后再把答案拼装起来。

    在此过程中,用户在效率、准确度方面的体验感将会大打折扣。

    这次的DeepSeek则带来了全新的体验,以致于以往并不相信AGI现阶段能成功的朱啸虎,不禁发出感慨:“AI是不是产生意识了?”令他的态度发生180度大转变的是,DeepSeek好像真的在思考。

    DeepSeek在回答用户提问时会展示详尽的思考过程,就好像无论跟它说什么,它真的能理解含义,上下文逻辑表达通畅,甚至遣词造句还带有语气。首先是肯定问题的价值,然后设身处地思考用户的提问意图,为满足其期待而回答问题。

    这样的“贴心”体验,与以往问一句答一句,略显笨拙的手机智能助手相比,简直是降维打击了。有了DeepSeek的加持,确实能让智慧问答等AI体验升级。

    但是,或许也仅限于此了,因为最终的评判标准,还得看用户们买不买账。

    在使用过程中,用户难免会产生一个疑问——下载DeePSeek、文小言、通义、豆包等APP的体验,与AI手机本身有多大差距?AI的回答并不是每次都对,“幻觉问题”如何解决?

    这些问题,现阶段不那么好回答,而且从数据上看,AI并没能为智能手机带来较大的增量。

    Canalys调研显示,在手机厂商密集发布AI旗舰机的2024年四季度,中国智能手机总出货量同比增长5%,但主要受益于备货国补、年末促销等原因,AI的作用并不明显。而且,2024年最畅销手机排行中,并无AI功能的iPhone 15系列位居前列,也从侧面提供了印证。

    而且,2024年9月份iPhone16系列推出后,苹果也没有获益颇丰。据苹果2025年第一财季(2024年10月至12月)报告显示,iPhone销量同比下滑近100万台,净销售额691.4亿美元,低于上年同期的697亿美元。

    即使DeepSeek大火,当前的AI赛道依然缺少杀手级的应用,在用户们的好奇心得到满足后,手机端AI功能的使用率可能会进一步下降。

    当前来看,即使DeepSeek为AI手机带来热度,也并不能逆天改命。

    AI赋能手机,任重道远

    AI手机已然是智能手机今后的主赛道,那么用户会有多依赖AI?

    至少在当下,AI很难说是一个完全靠谱的“智慧管家”,在结果的准确性上仍有不小的进步空间。

    例如AI修图,无论消除还是扩图,都经常会出现莫名其妙的处理结果;指令交互上,AI也时不时会出现南辕北辙的理解。

    即使DeepSeek来了,也同样不是万能的,其以逻辑推理见长,但在内容真实性辨别上并无十分显著的进步,所谓“一本正经地胡说八道”的幻觉现象仍然存在,这样一来,逻辑推理的能力越强,错误程度越离谱。

    例如,数码爱好者小陈,其每天都多次体验DeepSeek,在他看来,一定程度上替代了他对搜索引擎的需求。可除此之外,小陈并没有感受到更明显的提升,虽然能够为其提供更精准的问答体验,但也仅限于此。

    “我还在等OPPO的小布助手集成DeepSeek,看有什么样的体验提升,AI是一个大趋势,期待早日成为我购买新机的理由。”小陈对AI手机的未来保持乐观。

    除了体验上的问题,AI的安全性也需要引起重视。

    去年10月份,前荣耀CEO赵明在发布会现场,仅用一句指令,手机就自动下单了2000杯咖啡,这种系统级的深度功能,吸引了众多眼球。

    对于这种AI通过获取手机屏幕信息,自动与应用进行交互的系统级功能,360创始人周鸿祎提出了安全性质疑——美团App根本不知道是一个AI在模拟人类手指操作。这也是人们对于AI技术发展的担忧之一。

    AI想要进一步壮大,关键不仅在于AI厂商,更贴近消费者的手机厂商的努力也十分重要。要实现系统级的AI操作,需要手机厂商与App厂商展开深度合作,打通三方数据和权限,逐步打造一个庞大的AI生态,并对安全性做出更完善的保障。

    整个手机行业还需要等待全局技术的进一步成熟,例如硬件算力的突破,软件体验的升级,到那时,AI手机才是进入了下一个阶段,AI能为智能手机带来多大的增量,答案也会更清晰。

    DeepSeek是否真能力挽狂澜还未可知,确定的是,技术发展是不会止步的,每到迟滞阶段,总有新的技术迭代通往“柳暗花明又一村”,智能手机作为生活、工作的刚需,必然能够不断突破框架,持续进步。

    结语

    技术的进步,伴随着对用户习惯的改变。

    手机作为日常的重要工具,其操作逻辑已经为用户所熟知并且依赖,AI功能的丰富,虽然会极大地简化用户的使用习惯,但适应全新的交互,仍是一个不容易的过程。

    而且,AI的智能化会逐步趋于一致化。未来关键在于,如何通过端侧AI深度理解用户的行为习惯和需求,并基于具体场景提供个性化服务,领先友商,实现真正的差异化优势。

    这不仅是手机厂商的思考,也是整个AI行业面临的课题。

    来源:微信公众号 “一点财经”