标签: DeepSeek

  • Deepseek做AI爆款视频,绝了,3 分钟出大片

    Deepseek做AI爆款视频,绝了,3 分钟出大片

    第一步:用DeepSeek生成“勾魂”文案

    1. 打开DeepSeek官网https://chat.deepseek.com/,勾选“深度思考”模式(这玩意儿能让AI更懂你的需求)。
    2. 输入魔法咒语(直接复制这段):
      因为我老家是赤峰的,所以我用赤峰来举例子。

      “请帮我写一个短视频文案,要在视频号上播放,主题是‘内蒙古赤峰最值得去的三大旅游景点’,要求500字左右,以爆款文案的形式输出,让观众看完就觉得很想去赤峰游玩。直接放在剪映里使用‘图文成片’功能的文案。”

    3. 复制文案:等10秒,AI就会给你一段带emoji表情、分段清晰的文案,比如:

      🔥 第一站:阿斯哈图石林——外星人留下的奇幻世界!

      图片

    第二步:剪映一键生成视频

    1. 打开剪映APP,点击“图文成片”功能(在首页就能找到)
      图片
    2. 粘贴文案:把DeepSeek生成的文案丢进去,点“生成视频”。
      图片
    3. 等3分钟:剪映会自动匹配风景素材、加背景音乐、生成字幕,连配音都帮你搞定!

    小贴士

    • 如果AI配图太假(比如沙漠配了雪山),长按画面替换成真实景点图(去旅游网站搜“赤峰 玉龙沙湖”下载高清图就行)。
    • 开头3秒最重要!建议替换成动态航拍视频(B站搜“赤峰航拍素材”免费下载),观众立马被勾住!

    第三步:微调细节,让视频更“真人”

    AI生成难免有点“机械感”,教你3招秒变真实:

    1. 换掉AI配音:点击“音频”-“录音”,自己用手机录一段话(带点兴奋语气:“家人们谁懂啊!赤峰这地方绝了!”)。
    2. 加个真人镜头:哪怕露脸2秒说“我去过这里,真的超美!”,转化率立马翻倍!
    3. 打上你的LOGO:在视频角落加个水印,观众下次刷到就能记住你~

    为什么推荐这套组合拳?

    • 零成本:DeepSeek免费,剪映基础功能不要钱!
    • 超高效:从文案到成片只要10分钟,一天能肝30条视频!

    最后一句大实话:AI工具就像傻瓜相机,你不用会摄影,按快门就能出片!赶紧复制上面的步骤试试,保准你做完第一条就上头!

    来源:微信公众号“诗康妈咪懂 AI”

  • 用DeepSeek做图的4种方法,做小红书图文、海报、日报太快了,不服不行!1分钟教会,90%的人还不知道!(附保姆级教程)

    用DeepSeek做图的4种方法,做小红书图文、海报、日报太快了,不服不行!1分钟教会,90%的人还不知道!(附保姆级教程)

    今天再分享一个 DeepSeek 的高级用法——用 DeepSeek 出图。

    比如用 DeepSeek 做小红书图文、做日报、做海报等等。

    一、用 DeepSeek 做小红书图文

    小红书上图文类型的笔记非常多,比如下面这类:书籍金句类的笔记。

    图片

    下面就来演示一下:如何用 DeepSeek 1 分钟帮我们生成 10 张「可以直接发布」的金句卡片。

    提示词模板:

    ❝请搜集 10 个「个人成长」类书籍里的金句,制作成卡片的形式,我想用来发小红书笔记,帮我生成一段 html 代码。

    要求:

    1、每个卡面上包含金句和金句的出处。

    2、在每个卡片的外面,有一个下载按钮,点下载按钮,可以将整个卡片以 png 图片的形式下载下来。注意不要将下载按钮保存下载。

    3、每张卡片比例为 3:4。

    4、排版美观,不空洞,符合小红书社区氛围和审美。

    下面是 DeepSeek 生成的内容,点「复制」:

    图片

    粘贴代码到记事本等文本编辑器,保存为 html 格式(eg:书籍金句.html)。

    图片

    在文件上点右键,打开方式选择任意一个浏览器打开,就可以看到卡片效果了:

    图片

    点右上角的「↓」按钮,可以直接将金句卡片以图片的形式下载下来。

    如果觉得上面的卡片过于单调了,可以接着向 DeepSeek 提要求。

    提示词模板:

    ❝卡片太空洞单调了,想办法让卡片更丰富一些。并结合你提的这些优化方案,帮我生成一份完整的可以直接使用的 html

    下面就是 DeepSeek 优化后的数据金句卡片了,比第一版丰富多了:

    图片

    如果还有其他任何想调整的,都可以继续向 DeepSeek 提要求。

    二、用 DeepSeek 做日报

    提示词模板:

    ❝请帮我整理一下今天最火的 10 条关于 AI 的新闻 , 我想用来生成今天的日报,帮我生成一段 html 代码,要求简洁大方,排版美观,符合日报的风格

    图片

    ps:记得开联网搜索

    图片

    复制代码到记事本等文本编辑器,保存为 html 格式。

    在文件上点右键,打开方式选择任意一个浏览器打开,就可以看到日报了。

    下面是生成的日报效果:

    图片

    直接截图,或者使用上面介绍的方式添加一个下载按钮,就可以将日报保存为图片了。

    三、用 DeepSeek 生海报

    上面的两种方式,都是先生成 html 代码,然后再生成图片。

    下面再来介绍一种方式:

    这种方式是,先使用 DeepSeek 生成 AI 绘画提示词,然后使用 AI 绘画工具出图。

    提示词模板:

    我想做一张香水的营销海报,海报比例 9:16,请帮我生成 10 组 AI 绘画提示词,中文描述。要求:xxx

    ps:如果有更详细的要求,也可以在后面加上【要求:xxx】

    图片

    下面是 DeepSeek 生成的 10 组 AI 绘画提示词:

    图片

    打开即梦AI,把 DeepSeek 生成的提示词复制过去,选择「生图模型」和「比例」,点「立即生成」,就可以等待出图了。

    生图模型选择:

    就目前现有的模型来说,如果海报中需要写文字,那么就选「图片 2.1」模型,其他情况一般选「图片 2.0 Pro」就行了。

    图片

    下面是即梦 AI 生成的海报效果:

    图片

    四、用 DeepSeek 仿写提示词

    在即梦AI里,看到了这样一幅图,还挺有意思的。

    想生成更多类似的图片,来看看怎么用 DeepSeek 批量生成。

    图片

    提示词模版:

    ❝请分析并仿照下面的提示词,帮我生成另外 10 个相似的 AI 绘画提示词。提示词前边的部分(彩色简笔画,卡通风格,治愈系插画,生动童趣,手绘风笔触,)不用变,只修改后面的部分。参考提示词如下:xxx

    图片

    然后看 DeepSeek 的思考过程,它分析出了这里面用到了谐音梗:薯条->笑薯我了

    图片

    下面是 DeepSeek 生成的几组类似的风格的图片:

    芝士->芝足常乐:

    ❝彩色简笔画,卡通风格,治愈系插画,生动童趣,手绘风笔触,方形披萨盒张开盒盖化作大笑嘴巴,拉丝芝士形成卷曲头发,盒角变成挥动的小短腿,背景散落卡通橄榄和蘑菇,顶部立体字“芝足常乐”带投影效果

    图片

    汉堡->堡堡眼福:

    ❝彩色简笔画,卡通风格,治愈系插画,生动童趣,手绘风笔触,叠罗汉的拟人化汉堡包组合:顶层面包挤出生菜舌头,中间肉饼表演抛接芝士球,底层番茄片扭成S形,空白处爆炸对话框“堡堡眼福”用番茄酱字体

    图片

    煎蛋->蛋愿开心:

    ❝彩色简笔画,卡通风格,治愈系插画,生动童趣,手绘风笔触,拟人化太阳蛋在平底锅上伸懒腰,流动的蛋黄呈现笑脸,蛋白边缘焦脆感用锯齿线表现,锅柄化作高举的手臂,空白处稚拙字体“蛋愿开心”

    图片

    总结

    以上就是使用 DeepSeek 生成图片的 4 个案例。

    大体分两种类型:

    1、需求 ->html-> 图片

    前两种方式都是先让 DeepSeek 根据需求生成 html 代码,然后再将网页内容生成图片。

    常用的保存图片的 3 种方式:

    ① 直接截图

    ② 生成一个下载按钮下载(见第一个案例提示词)

    ③ 使用 html 转图片的在线工具生成

    2、需求 ->AI绘画提示词 -> AI 绘画工具出图

    案例三、四是先让 DeepSeek 根据需求生成 AI 绘画提示词,然后复制到 AI 绘画工具中生成图片。

    第二种方式的适用场景是:

    有时候我们想用 AI 绘画工具生成图片,但是不知道写什么提示词。

    这时就可以把需求简单描述给 DeepSeek,让 DeepSeek 帮我们生成几组提示词,给我们提供一些灵感。

    也可以对提示词进行仿写,批量生成类似的提示词。

    好了,以上就是今天的分享,感兴趣的快去试试吧~

    来源:微信公众号“X小鹿AI工具库”

  • 一文看懂 DeepSeek 刚刚开源的 FlashMLA,这些细节值得注意

    一文看懂 DeepSeek 刚刚开源的 FlashMLA,这些细节值得注意

    今天开始,我们正式进入 DeepSeek 开源周。

    DeepSeek 开源项目第一弹 FlashMLA,已经在极短的时间内发酵到全网了,短短几个小时,该项目就已经收获了超过 3.5K Star,且还在不断飙升。

    虽然 FlashMLA 里的每个字母都认识,连在一起就看不懂了。别急,我们整理了一份 FlashMLA 速通指南。

    由 Grok 3 整理,APPSO 核实

    让 H800 性能暴增,FlashMLA 到底什么来头? 

    据官方介绍,FlashMLA 是一个针对 Hopper GPU 优化的高效 MLA(Multi-Head Latent Attention)解码内核,支持变长序列处理,现在已经投入生产使用。

    FlashMLA 通过优化 MLA 解码和分页 KV 缓存,能够提高 LLM(大语言模型)推理效率,尤其是在 H100 / H800 这样的高端 GPU 上发挥出极致性能。

    说人话就是,FlashMLA 是一种专门为 Hopper 高性能 AI 芯片设计的先进技术——一种「多层注意力解码内核」。

    听起来很复杂,但简单来说,它就像是一个超级高效的「翻译器」,能让计算机更快地处理语言信息。 它能让计算机处理各种长度的语言信息,而且速度特别快。

    比如,你在用聊天机器人的时候,它能让你的对话更快地得到回复,而且不会卡顿。 为了提高效率,它主要通过优化一些复杂的计算过程。 这就像是给计算机的「大脑」做了一个升级,让它在处理语言任务时更聪明、更高效。

    DeepSeek 官方特意提到,FlashMLA 的灵感来自 FlashAttention 2&3 和 cutlass 项目。

    FlashAttention 是一种高效的注意力计算方法,专门针对 Transformer 模型(如 GPT、BERT)的自注意力机制进行优化。它的核心目标是减少显存占用并加速计算。cutlass 也是一个优化工具,主要帮助提高计算效率。

    DeepSeek 的爆火出圈很大程度上是因为以低成本创造了高性能模型。

    而这背后的秘籍主要得益于其在模型架构和训练技术上的创新,尤其是混合专家(MoE)和多头潜在注意力(MLA)技术的应用。

    FlashMLA 则是 DeepSeek 公司开发的一种针对多头潜在注意力(MLA)技术的实现和优化版本。 那么问题来了,什么是  MLA( 多头潜在注意力)机制?

    在传统的语言模型里,有一种叫「多头注意力(MHA)」的技术。 它能让计算机更好地理解语言,就像人用眼睛同时关注多个地方一样。

    不过,这种技术有个缺点,就是需要很大的内存来存储信息,就像一个很能装的「仓库」,但仓库太大就会浪费空间。

    MLA 的升级之处在于一种叫「低秩分解」的方法。

    它把那个大仓库压缩成一个小仓库,但功能还是一样好,就像把一个大冰箱换成一个小冰箱,但里面的东西还是能放得下。这样一来,在处理语言任务的时候,不仅节省了空间,速度还更快了。

    不过,虽然 MLA 把仓库压缩了,但它的工作效果和原来一样好,没有打折扣。

    当然,除了 MLA 和 MoE,DeepSeek 还用了其他一些技术来大幅降低了训练和推理成本,包括但不限于低精度训练、无辅助损失的负载均衡策略以及多 Token 预测(MTP)。

    性能数据表明,FlashMLA 在内存和计算限制下的表现远超传统方法,这得益于其线性复杂度的设计和针对 Hopper GPU 的优化。

    与标准多头注意力的对比,更是进一步凸显 FlashMLA 的优势:

    FlashMLA 的主要应用场景包括:

    • 长序列处理:适合处理数千个标记的文本,如文档分析或长对话。
    • 实时应用:如聊天机器人、虚拟助手和实时翻译系统,降低延迟。
    • 资源效率:减少内存和计算需求,便于在边缘设备上部署。

    目前 AI 训练或推理主要依赖英伟达 H100 / H800,但软件生态还在完善。

    由于 FlashMLA 的开源,未来它可以被集成到 vLLM(高效 LLM 推理框架)、Hugging Face Transformers 或 Llama.cpp(轻量级 LLM 推理) 生态中,从而有望让开源大语言模型(如 LLaMA、Mistral、Falcon)运行得更高效。

    同样的资源,能干更多的活,还省钱。

    因为 FlashMLA 拥有更高的计算效率(580 TFLOPS)和更好的内存带宽优化(3000 GB/s),同样的 GPU 资源就可以处理更多请求,从而降低单位推理成本。

    对于 AI 公司或者云计算服务商来说,使用 FlashMLA 也就意味着更低的成本、更快的推理,让更多 AI 公司、学术机构、企业用户直接受益,提高 GPU 资源的利用率。

    此外,研究人员和开发者还可以基于 FlashMLA 做进一步的优化。

    过去,这些高效 AI 推理优化技术通常主要掌握在 OpenAI、英伟达等巨头手里,但现在,随着 FlashMLA 的开源,小型 AI 公司或者独立开发者也能用上, 更多人进入 AI 领域创业,自然也就有望催生更多的 AI 创业项目。

    简言之,如果你是 AI 从业者或者开发者,最近在用 H100 / H800 训练或推理 LLM,那么 FlashMLA 可能会是一个值得关注或研究的项目。

    与春节期间网友扒出 DeepSeek V3 论文具体提到了 PTX 的细节相似,X 网友发现 DeepSeek 发布的 FlashMLA 项目中同样包含了一行内联 PTX 代码。

    PTX 是 CUDA 平台的中间指令集架构,处于高级 GPU 编程语言和低级机器代码之间,通常被视为英伟达的技术护城河之一。

    通过内联 PTX,这使得开发者能够更精细地控制 GPU 的执行流程,从而可能实现更高效的计算性能。

    此外,直接利用英伟达 GPU 的底层功能,而不必完全依赖于 CUDA,也有利于降低英伟达在 GPU 编程领域的技术壁垒优势。

    换句话说,这或许也意味着 DeepSeek 可能在有意绕开英伟达封闭的生态。

    当然,如无意外,根据外媒的爆料,本周接下来预计还有 GPT-4.5、Claude 4 等模型的发布,去年年底没能看到的 AI 大战或将在本周上演。

    看热闹不嫌事大,打起来,打起来。

    官方部署指南 

    FlashMLA 是一种高效的 MLA 解码内核,专为 Hopper GPU 优化,可用于处理变长序列推理。

    当前已发布版本支持:

    • BF16
    • 分页 KV 缓存,块大小为 64

    在 H800 SXM5 上运行 CUDA 12.6,FlashMLA 在受内存带宽限制的配置下可达 3000 GB/s,在受计算能力限制的配置下可达 580 TFLOPS。

    项目配备:

    • Hopper GPU
    • CUDA 12.3 及以上版本
    • PyTorch 2.0 及以上版本

    附上 GitHub 项目地址:https://github.com/deepseek-ai/FlashMLA

    安装

    python setup.py install

    基准

    python tests/test_flash_mla.py

    python tests/test_flash_mla.py 是一个命令行指令,用于运行 Python 测试文件 test_flash_mla.py,通常用于测试 flash_mla 相关的功能或模块。

    用法

    from flash_mla import get_mla_metadata, flash_mla_with_kvcache

    tile_scheduler_metadata, num_splits = get_mla_metadata(cache_seqlens, s_q * h_q // h_kv, h_kv)

    for i in range(num_layers):

    o_i, lse_i = flash_mla_with_kvcache(

    q_i, kvcache_i, block_table, cache_seqlens, dv,

    tile_scheduler_metadata, num_splits, causal=True,

    )   …

    来源:微信公众号“APPSO”

  • DeepSeek接入潮汹涌:适配商忙坏,大厂或赔惨?

    DeepSeek接入潮汹涌:适配商忙坏,大厂或赔惨?

    DeepSeek引发的蝴蝶效应还在持续。

    1月20日,DeepSeek公司正式发布了其推理模型DeepSeek-R1的完整版本。该模型通过算法优化,以较低的训练成本实现了与OpenAI推理模型o1相媲美的性能,并且开源。

    传统AI训练对算力的需求巨大,当业内普遍为AGI(通用人工智能)贴上“大力出奇迹”的标签,DeepSeek却开辟了一片“无人区”,吸引一众企业争相接入。企业接入DeepSeek,即企业通过硬件设备连接DeepSeek的访问地址,从而获取DeepSeek的模型服务。

    据不完全统计,接入DeepSeek-R1模型的国内上市公司已经超过100家,其中不乏阿里、腾讯、百度、三大运营商这类拥有自研模型和AI应用的企业。

    时代周报记者采访多位业内人士发现,企业选择DeepSeek的原因主要集中在两方面。一是DeepSeek-R1开源较彻底,部署方便,且在特定场景下展示了强大的处理和推理能力;另一方面,DeepSeek声量走高,意味着接入方有机会承接其外溢的流量。QuestMobile数据显示,DeepSeek的日活跃用户数在2月1日突破3000万大关。

    不过, 大厂接入DeepSeek模型也可能面临巨大的亏损压力。近期,AI Infra(连接硬件和上层应用的中间层基础设施)企业潞晨科技CEO尤洋指出,满血版DeepSeek-R1每百万token(输出)定价16元,如果每日输出1000亿token,一个月算下来接入方企业可获得4800万元收入。据他测算,完成1000亿token的输出,需要约4000台搭载H800的机器,以目前H800的市价或者折旧来计算,每月仅机器成本就达4.5亿元,因此企业方可能面临每月4亿元的亏损,“用户越多,服务成本越高,亏损越多”。

    AI Infra厂商市场负责人张迪(化名)告诉时代周报记者,离DeepSeek疯狂发酵仅有数周,软硬件适配、测试、上架等工程都需要时间,目前公司对外合作的项目还未落地,因此具体成本数据暂不清晰。

    在AI的潮汐效应下,接入DeepSeek是否一本万利,还需让子弹再飞一会儿。

    △图源:Pixabay

    接入模型并非“量”的比拼

    目前来看,企业接入DeepSeek的程度有所不同。

    2月13日,继微信、腾讯文档、QQ浏览器等业务侧产品先后接入DeepSeek-R1后,腾讯自研的AI助手“腾讯元宝”也正式接入DeepSeek-R1,支持用户切换使用混元大模型和DeepSeek-R1。

    相比腾讯近乎全面拥抱DeepSeek的决心,阿里等公司对DeepSeek的接入主要体现在自己的主营业务侧产品,给自研的大模型产品保留了一部分空间。如阿里的1688、钉钉、阿里云相继接入DeepSeek,其旗下全能AI助手通义APP尚未表态。

    不难发现,接入DeepSeek的企业,率先将DeepSeek应用在了AI能力运用场景较多的业务上。

    “接入模型并非‘量’的比拼,需求方应该充分考虑模型与业务场景适配性。”值得买科技CTO王云峰在接受时代周报记者采访时表示,当下大模型的应用模式愈发多样,不同模型有各自适配场景。

    此前,值得买科技自研了130亿参数消费大模型,也接入了一些主流模型,谈及接入DeepSeek的原因,王云峰解释称,值得买科技的自研模型在商品理解、价格预测等垂直领域能力出色,但AI技术的复杂性,决定了单一模型无法覆盖所有场景。例如做检索增强时,内部工具流程需AI合理调度,外部通用模型难以适配,此时自研模型就负责内部流程调度、用户意图理解等关键任务,而通用模型则用于站内文章生成这类通用场景。

    从实际落地效果来看,DeepSeek-R1的问题处理和推理能力表现出色。王云峰告诉时代周报记者,和包括DeepSeek-V3在内的其他模型相比,DeepSeek-R1生成内容的行文逻辑更清晰,文学性也更突出。其强大的语言处理能力,让公司内容生产的效率有了明显提升,“如果使用通用模型,还需要进行垂类数据微调才能更好发挥作用。”

    网络安全公司知道创宇是DeepSeek更早期的受益者。

    去年12月,知道创宇旗下的网络空间测绘引擎ZoomEye国际版同步上线了对DeepSeek的调用支持。知道创宇CSO(首席战略官)周景平向时代周报记者表示,从接入DeepSeek到现在,ZoomEye国际版的平台注册量增长28.5%,平台活跃度增长121.6%,AI 搜索功能使用率达35.8%。

    周景平在接受时代周报记者采访时难掩兴奋。他称,DeepSeek被公司应用在包括漏洞挖掘、数据情报分析、规则转化处理、自动化安全运营等多个细分业务场景中。在数据情报分析上,受益于DeepSeek等大模型数据分析及推理能力,公司可高效补齐之前所依赖的分析师知识框架之外的细节点。

    “相比GPT,DeepSeek聚焦通过低成本高性能的技术路线,降低企业接入门槛,并通过开源策略促进技术普及和产业链协同,这为国内企业级应用的爆发提供了更大的可能性。”在周景平看来,DeepSeek-V3和DeepSeek-R1利好接入企业的意义在于性价比高。他说,DeepSeek开源较为彻底,同时发布了蒸馏模型的本地量化版,这使得企业进行本地化部署的性价比大幅度提升。

    适配商等来春天?

    企业扎堆接入DeepSeek,也忙坏了位于大模型产业链中间层的适配厂商。

    张迪向时代周报记者表示,DeepSeek爆火后,公司往来的咨询者日益增多。“以前一两个月才有一位前来咨询业务的客户,现在我们每天要接待十几个。”张迪称,现在几乎每天都需要加班,除了应对业务咨询,还要参与直播、客户验收、商务对接等工作,公司和小组的会议往往被安排在晚上8点和9点。

    张迪称,DeepSeek大火之前,大家对私有化部署仅仅停留在探讨产品功能的层面,而如今公司的咨询者,或许在焦虑的驱使下,合作目的更加明确,双方谈话主题大致锁定在为提需求、了解产品性能、给报价三个方面。

    另一AI Infra厂商的创始人赵欣向时代周报记者表示,需求大涨,行业工作节奏普遍加快,“有人手里拿着钱排队等你的产品,肯定要比没事做的时候兴奋。”他表示,产品走向市场,真正地为人所用,也是个人价值层面的正向反馈。

    此前,有分析人士向时代周报记者称,因国产算力适配成本较高,在英伟达的芯片稀缺情况下,使用国产算力的企业接入DeepSeek可能要面临一定财务压力,继而影响到中间层厂商的发展前景。

    尤洋向时代周报记者拆解了企业接入DeepSeek的路径,他表示,DeepSeek是开源模型,接入方只要有算力就可以部署运行。

    尤洋说,算力的主流提供方式一般有两种,一种是企业自有算力,比如有本地的一体机或者机房;另一种是公有云上的算力,企业可以按月租用。除此之外,有一些云厂商还提供MaaS(Model as a Service)的模式,也就是将DeepSeek模型部署到公有云上后,需求企业再调用DeepSeek API,按实际使用的token量付费,适合早期的轻量化探索需求。

    企业接入DeepSeek的成本主要分硬件和部署成本两部分。

    硬件成本方面,不同规格的硬件价格差异较大,相同规格不同规模的硬件价格也十分不同。“对于仅需要使用模型的企业来说,选择推理芯片会有效降低硬件成本;而对于有微调和训练要求的企业,可能在购买或租赁硬件时需要使用训练芯片。另外,对于并发数量或者输出速度要求较高的企业,需要选择有充足算力和显存的芯片,这类芯片的价格会偏高。”尤洋表示。

    而部署成本的区别除了体现在不同规格芯片的部署难度上,还和企业的具体要求有关。比如,如果企业需要高并发、接入知识库、接入联网功能等,都会存在较大的工作量。

    “对于满血DeepSeek-R1 671B模型来说,本地化部署的硬件成本在百万级别,一般来说是远高于部署成本的。有些中小型企业会使用蒸馏版的模型,或者是直接调用云厂商的API,这样适配成本就会低很多。”尤洋补充道。

    对于业内的成本担忧,赵欣称,目前公司客户以中小型企业和传统行业的大型企业为主,虽公司体量、业务不同,所牵涉的成本数据也存在较大差异,但从目前的适配案例来看,客户企业一般都具备承担该项成本的能力。

    来源:微信公众号 “时代周报”

  • AI手机迎来“DeepSeek时刻”?

    2025年将是AI商业化落地元年,智能手机行业的争夺战尤其激烈。

    苹果CEO库克曾表示,在已开放使用Apple Intelligence技术的国家内,iPhone 16系列销量更高。而iPhone 16销量平淡,则被认为是因为AI技术在部分地区未能应用。

    2月20日iPhone 16e的发布会上,苹果强调将在今年4月推出支持简体中文在内的多语言版Apple Intelligence。

    △ iPhone 16e:最廉价的苹果AI手机

    苹果在国内的AI功能,经过数次传言变化,最终合作方花落阿里巴巴。后又有传出百度或将合作,开发处理图像和文字的AI搜索功能,以及提升中文版 Siri 的体验。

    在此之前,国内主流手机品牌们已然来了一次“DeepSeek大团建”。就在三四天内,华为、荣耀、vivo、OPPO、小米等厂商纷纷高调接入DeepSeek-R1。

    自从去年AI手机的概念愈加火热,几乎所有的主流手机厂商都推出了自己的AI技术,试图将其转化为用户换机的驱动力。

    而随着苹果国行AI能力即将落地,以及各家国产手机厂商对DeepSeek的融合部署,手机厂商们在中国市场的AI大战,即将进入正面交锋。

    AI战场

    AI手机已然进入正面交锋的新阶段。

    为了按照计划在中国大陆推出Apple Intelligence,苹果和国内多家厂商进行过洽谈,最终花落阿里巴巴,原本传言的合作伙伴百度,或将负责开发处理图像和文字的AI搜索功能。三星宣布与智谱的Agentic GLM合作在新手机Galaxy S25搭载AI能力。

    对苹果而言,在中国找到合适的AI合作伙伴至关重要,这影响到其市场份额的波动。中国是苹果仅次于美国的第二大市场,过去两年,苹果在华收入持续下滑,2025年财年第一财季(2024年第四季度)同比下降了11%。

    从进度上看,两家世界级智能手机巨头在中国国内的AI能力还需要时间进行适配开发。相比之下,国内手机厂商在AI上的进度就有所超前,并且信心倍增,这源自春节期间DeepSeek在全球范围内的火爆。

    DeepSeek大模型的优势在于,能够用较低的训练成本实现高性能推理,并且开源路线可以令企业根据自身需求进行个性化定制,补足自身在大模型研发实力上的短板。

    2月5日,华为率先在纯血鸿蒙系统中的小艺App上,上架了DeepSeek-R1智能体测试版,并于几天后升级为正式版,还新增了“联网搜索”功能。

    随后在2月8日上午,荣耀也宣布正式接入DeepSeek,系统版本MagicOS 8.0以上用户,可将YOYO助理升级到最新版本,与DeepSeek-R1进行流畅对话。

    vivo也官宣旗下蓝心大模型将与DeepSeek融合,可提供图片生成、AI文本创作、AI问答等功能。

    2月20日,OPPO发布折叠屏旗舰Find N5时,宣布小布助手将接入满血版DeepSeek,支持深度思考、联网搜索,并且用户无需下载和多步打开。

    2月23日,小米超级小爱也上线了DeepSeek-R1,默认使用联网搜索,输入“打开深度思考”即可开启。

    过去一年,各大手机厂商纷纷加速布局AI技术,华为有“盘古大模型”,小米有“超级小爱”,vivo有“蓝心大模型”,OPPO有“AndesGPT”,荣耀有“魔法大模型”等。

    竞逐之下,各大厂商挖掘出不少功能花活。如AI修图,将一张照片中不需要的人物、景物抹去,AI填补空白降低违和感;AI翻译、自动字幕等功能可以在浏览视频时提供便利;AI语义总结等功能可以帮助提高办公效率。

    有DeepSeek加持之后,体验无疑将更上一个台阶,只是用户下载DeepSeek APP也能体验大多数功能,手机厂商官宣接入并不具备独特性。

    但箭在弦上,DeepSeek这趟车不得不上。这其实展现了行业的一个困境——对于智能手机的配置迭代,数码圈里最常说的就是“我可以不用,但你不能没有。”

    在长焦微距、超声波指纹、四等边全面屏等各种配置上,都经历过网友们如此严苛的检验,当前最火的的AI也同样如此,谁家缺席了AI功能,就等于掉队了,因此没有哪家手机厂商敢怠慢。

    DeepSeek时刻?

    AI的前景无疑是光明的。据Canalys预计,2024年,AI手机渗透率将达到17%,预计2025年AI手机渗透将进一步加速,推动全球渗透率将达到32%。

    尽管从数据来看,AI像是智能手机市场增长的推动力,但细想之下,不如说AI是手机厂商在创新“黔驴技穷”的情形下,紧紧抓住的救命稻草。毕竟如今凡是新推出的机型,都会将AI能力作为重要宣传点。

    iPhone因开创了智能机时代,之后在各行各业的发展关键节点,都会以“iPhone时刻”作比喻,此时此景,是否意味着国内智能手机行业迎来了“DeepSeek时刻”?

    这还需要从DeepSeek带来的功能加成,以及后续的影响来分析。

    回想之前的大模型,其主要作用是回答一个简单问题,辅助用户获取筛选后的答案。这不仅对用户输入的提示词要求颇高,对于涉及多方面、多步骤的复杂问题,还需要用户一一拆解分别提问,最后再把答案拼装起来。

    在此过程中,用户在效率、准确度方面的体验感将会大打折扣。

    这次的DeepSeek则带来了全新的体验,以致于以往并不相信AGI现阶段能成功的朱啸虎,不禁发出感慨:“AI是不是产生意识了?”令他的态度发生180度大转变的是,DeepSeek好像真的在思考。

    DeepSeek在回答用户提问时会展示详尽的思考过程,就好像无论跟它说什么,它真的能理解含义,上下文逻辑表达通畅,甚至遣词造句还带有语气。首先是肯定问题的价值,然后设身处地思考用户的提问意图,为满足其期待而回答问题。

    这样的“贴心”体验,与以往问一句答一句,略显笨拙的手机智能助手相比,简直是降维打击了。有了DeepSeek的加持,确实能让智慧问答等AI体验升级。

    但是,或许也仅限于此了,因为最终的评判标准,还得看用户们买不买账。

    在使用过程中,用户难免会产生一个疑问——下载DeePSeek、文小言、通义、豆包等APP的体验,与AI手机本身有多大差距?AI的回答并不是每次都对,“幻觉问题”如何解决?

    这些问题,现阶段不那么好回答,而且从数据上看,AI并没能为智能手机带来较大的增量。

    Canalys调研显示,在手机厂商密集发布AI旗舰机的2024年四季度,中国智能手机总出货量同比增长5%,但主要受益于备货国补、年末促销等原因,AI的作用并不明显。而且,2024年最畅销手机排行中,并无AI功能的iPhone 15系列位居前列,也从侧面提供了印证。

    而且,2024年9月份iPhone16系列推出后,苹果也没有获益颇丰。据苹果2025年第一财季(2024年10月至12月)报告显示,iPhone销量同比下滑近100万台,净销售额691.4亿美元,低于上年同期的697亿美元。

    即使DeepSeek大火,当前的AI赛道依然缺少杀手级的应用,在用户们的好奇心得到满足后,手机端AI功能的使用率可能会进一步下降。

    当前来看,即使DeepSeek为AI手机带来热度,也并不能逆天改命。

    AI赋能手机,任重道远

    AI手机已然是智能手机今后的主赛道,那么用户会有多依赖AI?

    至少在当下,AI很难说是一个完全靠谱的“智慧管家”,在结果的准确性上仍有不小的进步空间。

    例如AI修图,无论消除还是扩图,都经常会出现莫名其妙的处理结果;指令交互上,AI也时不时会出现南辕北辙的理解。

    即使DeepSeek来了,也同样不是万能的,其以逻辑推理见长,但在内容真实性辨别上并无十分显著的进步,所谓“一本正经地胡说八道”的幻觉现象仍然存在,这样一来,逻辑推理的能力越强,错误程度越离谱。

    例如,数码爱好者小陈,其每天都多次体验DeepSeek,在他看来,一定程度上替代了他对搜索引擎的需求。可除此之外,小陈并没有感受到更明显的提升,虽然能够为其提供更精准的问答体验,但也仅限于此。

    “我还在等OPPO的小布助手集成DeepSeek,看有什么样的体验提升,AI是一个大趋势,期待早日成为我购买新机的理由。”小陈对AI手机的未来保持乐观。

    除了体验上的问题,AI的安全性也需要引起重视。

    去年10月份,前荣耀CEO赵明在发布会现场,仅用一句指令,手机就自动下单了2000杯咖啡,这种系统级的深度功能,吸引了众多眼球。

    对于这种AI通过获取手机屏幕信息,自动与应用进行交互的系统级功能,360创始人周鸿祎提出了安全性质疑——美团App根本不知道是一个AI在模拟人类手指操作。这也是人们对于AI技术发展的担忧之一。

    AI想要进一步壮大,关键不仅在于AI厂商,更贴近消费者的手机厂商的努力也十分重要。要实现系统级的AI操作,需要手机厂商与App厂商展开深度合作,打通三方数据和权限,逐步打造一个庞大的AI生态,并对安全性做出更完善的保障。

    整个手机行业还需要等待全局技术的进一步成熟,例如硬件算力的突破,软件体验的升级,到那时,AI手机才是进入了下一个阶段,AI能为智能手机带来多大的增量,答案也会更清晰。

    DeepSeek是否真能力挽狂澜还未可知,确定的是,技术发展是不会止步的,每到迟滞阶段,总有新的技术迭代通往“柳暗花明又一村”,智能手机作为生活、工作的刚需,必然能够不断突破框架,持续进步。

    结语

    技术的进步,伴随着对用户习惯的改变。

    手机作为日常的重要工具,其操作逻辑已经为用户所熟知并且依赖,AI功能的丰富,虽然会极大地简化用户的使用习惯,但适应全新的交互,仍是一个不容易的过程。

    而且,AI的智能化会逐步趋于一致化。未来关键在于,如何通过端侧AI深度理解用户的行为习惯和需求,并基于具体场景提供个性化服务,领先友商,实现真正的差异化优势。

    这不仅是手机厂商的思考,也是整个AI行业面临的课题。

    来源:微信公众号 “一点财经”

  • 小红书将接入DeepSeek,AI搜索“点点”iOS版下载量总计约20万

    小红书将接入DeepSeek,AI搜索“点点”iOS版下载量总计约20万

    (图片来源:钛媒体AGI编辑林志佳拍摄)

    (图片来源:钛媒体AGI编辑林志佳拍摄)

    继腾讯微信之后,另一款拥有超过3亿月活用户的“国民级应用”将接入DeepSeek大模型。

    2月21日消息,钛媒体AGI独家获悉,小红书即将接入DeepSeek-R1开源模型,其AI搜索产品“点点”App将推出”深度思考“功能,目前处于新功能内测体验阶段。

    对此,截至钛媒体AGI发稿前,小红书没有回应相关消息。

    小红书成立于2013年,为一款社交和社区应用产品,用户可以通过短视频、图文等形式记录生活点滴,分享生活方式,最初以”标记我的生活”为slogan。截至2024年6月,小红书月活用户已达3.2亿人,日活用户达1.2亿人。

    随着2025年初,短视频应用、抖音海外版TikTok在美国下架,小红书在美国迎来了一波新用户增长。据分析公司Similarweb的最新数据显示,仅今年1月16日一天,小红书在美国iOS和Android设备上的日活跃用户数猛增近300万,达到约340万人次。

    据QuestMobile数据显示,2024年12月,小红书平台月活跃用户规模达2.25亿,月人均使用时长21.22小时,在新媒体平台排名中超过了哔哩哔哩(B站),仅次于抖音、快手、微博。

    融资层面,2024年7月,小红书完成E+轮融资,俄罗斯投资机构DST Global、高瓴资本、博裕资本和中信资本、红杉资本等参与投资,公司估值高达170亿美元(约人民币1200亿元)。此前小红书创始人瞿芳表示,公司将完成IPO上市。

    随着ChatGPT风靡全球,拥有大量算法人才、技术和内容数据的小红书公司(行吟信息科技),对于生成式 AI 的态度,已经从观望和支持博主层面,转向深入参与。

    2024年12月底,小红书推出独立 AI 搜索应用产品“点点”,并且在小红书App内测搜索新功能“问点点”。而“点点”的定位为生活搜索助手,覆盖交通出行、美食推荐、旅游攻略、购物评价、人际交往等垂直生活场景,强调以“及时性的信息”和“全网真实声音”帮助用户解答日常生活中遇到的问题,做到“精准避坑”。

    在此之前,小红书已上线AI搜索对话助手“达芬奇”、搜索智能助手“搜搜薯”。不同之处在于,它们都只是内测阶段,而点点则拥有独立App和微信小程序,站外进展大幅领先于站内。这是小红书首次尝试的产品和推广形态。

    据小红书商业化团队发布的《2024小红书搜索推广白皮书》报告显示,截至2022年年底,平台70%的月活跃用户存在搜索行为,88%的搜索行为为用户主动发起,9成用户表示其消费决策受到小红书搜索内容影响,更有高达42%的新用户在第一天使用小红书时会使用搜索功能。因此,这也解释其对AI搜索的热衷。

    截至发稿前,根据七麦数据,自“点点”App上线以来,其iOS版在苹果App Store应用商店下载量总计预估为20万人次,近30天日均下载量2282次,最新是在效率(免费)类别中排名第97位,而小红书App下载排名为社交免费榜第一位。

    随着腾讯微信、小红书、百度App、支付宝(百宝箱)等多款超亿级用户的互联网应用和相关App接入DeepSeek模型,将全面加速国内AI大模型在C端的落地和产业发展。

    2月20日,作为国内互联网科技大厂,阿里巴巴集团CEO吴泳铭在业绩会上表示,阿里集团在AI战略里面的首要目标是AGI(通用人工智能)的实现,可能远远超过现在可见的任何一个应用场景。从实现AGI的商业价值来看,AGI的标准定义是能够完成80%以上的人类的能力,那么全球GDP的50%支出其实是就业者的劳动工资支出,包括脑力劳动和体力劳动。因此,AI相关产业大概率将会是全球最大的产业,有可能影响或者替代现在50%左右的GDP构成。

    早前,中欧国际工商学院决策科学与管理信息系统教授谭寅亮对钛媒体AGI表示,DeepSeek的成功表明,中国企业在AI应用层面和用户体验上具有强大的创新能力,尤其是在产品快速迭代和市场化方面更具优势。这为中国在全球AI竞争中提供了重要的信心,特别是在C端市场表现上,中国团队对用户需求的深刻理解起到了关键作用。DeepSeek的崛起进一步推动了这种竞争的动态化发展。

    来源:钛媒体

  • 关于微信接入DeepSeek,我们帮你研究了两大隐秘商机

    关于微信接入DeepSeek,我们帮你研究了两大隐秘商机

    要知道,中国对于AI的热情可是全世界第一。任何有关AI的消息放出来,咱们都是最兴奋的,反倒是欧美人非常淡定。

    来源:益普索线下闭门会议

    从生产端看,互联网平台接入AI搜索能力,早已不是什么稀奇的事情。

    作为搜索领域的一哥,百度早早就接入了AI能力。2024年,在其7亿APP日活中,AI功能的渗透率已经超过了70%。

    字节推出了“抖音搜索APP”和“豆包”,都具备强大的AI搜索能力,后者更是以千万日活常年霸榜国内AI产品No.1(前几天刚刚被deepseek反超)。

    腾讯推出了元宝app,搭载了自研的混元大模型,是国内首个能够直接基于公众号、视频号内容进行AI搜索的工具。

    小红书推出了“点点app”,基于自身内容专门构建了“生活灵感和攻略”的AI搜索能力

    KIMI、天工、秘塔等独立AI产品,比互联网大厂更早地启用了AI搜索功能。

    但在应用端,大家似乎把热情都用到了股市上,感觉股民们探讨AI的次数,有可能比公司CEO更多。

    就在这几天,微信开始灰度测试接入DeepSeek-R1模型,提供“深度思考”服务,用户可通过微信对话框顶部的“AI搜索”入口免费使用该功能,整合了微信公众号、视频号等腾讯生态内容及全网优质信息源。

    此番社媒巨头和大模型天花板的强强联合,在我们看来,很有可能诞生全新的商机。尤其是对于品牌做营销来说,一个新的场景和机遇正在孵化中。

    为何会有新商机?

    表面上看答案很简单:微信13.82亿MAU体量优势是任何一家公司都不具备的。相对应地,微信搜索功能的月活基本上是中国最多的,甚至超过了百度移动端,这代表了巨大的流量机会,大家都对一座隐藏的矿山充满了遐想。

    但矛盾点在于,大家并不知道矿山里装的是什么:从2024年的情况来看,微信搜一搜的日均搜索次数又非常少,说明使用频次很低,这些流量能产生多少商业价值其实很难判断。

    因为在我们的常规认知中,微信的心智从来都不是搜索,即使用户量再大,没有后链路的行动也白搭。

    (数据来源:小红书@名道)

    企业非常担心开采这座矿山,拿到的不是“金子”,而是低粘性、不精准的“铜铁”。至少从目前微信的广告收入来看,搜索占比还不高。

    但是,这种情况正在发生改变。

    首先看短期。我们在2024年Q3的用户调研显示:微信搜索是公众号内容的TOP1入口,同时也是视频号内容的TOP2入口。同时,用户的收入阶层越高、消费能力越强,通过搜索进入公众号内容的占比就越高。

    对比抖音来看,其TOP1入口是“直接打开刷视频”,而TOP2是“APP消息推送召回”;而小红书的“直接打开刷内容”和“搜索”几乎是并列TOP1。

    从内容消费的角度来说,微信的用户心智正在发生巨大的变化,更贴近小红书和百度,而不是抖音。根据微信公开课2023年的数据,微信搜索对于小程序新增日活用户的贡献占比、对于公众号新增粉丝的贡献占比分别高达20%和27%。[1]

    腾讯2024年Q3的财报显示,得益于大模型能力提升了用户体验,微信搜索带来的广告营收同比翻倍增长。

    其次看长期。越是具备复合功能的APP,才能在大浪淘沙中胜出,真正具备“生态”能力的平台,才是AI的主流入口。

    比尔盖茨曾经表示:整个软件市场的格局都会改变。以后会需要多少应用程序呢?现在我们看到的是,每个人都在往自己的应用里加 AI,然后说:“看,我加了AI功能,所以得多收点钱。” 但是实际上呢,你需要的应用数量其实应该大大减少。[2]

    由此我们推断:在用户行为发生变化的情况下,微信搜索的“含金量”会持续上升,直接联动了品牌在微信生态内的内容营销,促进私域资产的沉淀,甚至有可能导向直播间、小程序等交易场景。

    这对于企业营销获客、品牌建设来说的确是值得关注 – 如果在AI的加持下,能够提升用户体验并促进更多的活跃度,自然是新的增量。

    那么,增量具体会出现在什么地方?

    商机1:

    企业官网和社媒账号有机会获得更多自然流量

    不仅仅是微信,随着“AI+搜索”的发展,整个市场都会为企业营销创造免费、长尾流量的机会,底层逻辑与搜索引擎优化(SEO)有点类似。

    从运作原理来说:无论什么AI工具,在用户提问后,除了给出总结性内容之外,还会给出信息来源的链接作为注释。与传统搜索引擎一样,大多数情况下,用户就会选择性点击这些链接,进一步了解详细信息。

    如果企业提供的内容能够被AI算法收录并提供给用户作为答案的一部分,那么企业就有机会从AI搜索入口收获额外的流量。

    这主要体现在企业官网、电商页面、社媒账号的流量增长上。我们先对标国外成熟市场看趋势,再参照微信的功能思考机会点:

    一项大范围的网站流量研究显示,有63%的网站至少收到过一次AI搜索引擎(如chatgpt、bing、gemini等)推荐来的访客。也就是说,任何公开的网站都有63%的机会从AI搜索引擎获得额外的流量。其中,98%AI流量来自三巨头身上:ChatGPT、Perplexity 和 Gemini。[3]

    放到国内,对于很多品类来说微信公众号/小程序几乎就成为了“企业官网”的代名词[4] 。 企业的Own media内容,有了更大的概率被精准客户发现,从而产生兴趣。作为唯一一个可以搜索公众号、视频号内容的入口,微信的AI搜索就有了一定独特性。

    来源:新榜《2023企业新媒体矩阵营销洞察报告》

    对于B2B行业来说,这一点更加重要。微信公众号、视频号以压倒性优势成为了企业社媒的TOP1窗口。[5]

    来源:KAWO《2024年B2B社媒营销研究报告》

    从网站类型来看,在线服务、教育、文娱媒体、科技互联网,都是ChatGPT导流最直接的受益者。[6]

    而我们拿到的数据表明,这些类目与微信搜索中最活跃的类目高度重合。

    来源:腾讯广告官方资料

    格外利好长尾内容和中小企业

    从传统搜索引擎排名的角度来看,“权重”才是真正的血脉压制 – 权威、知名的网站天然受到算法青睐,在一些主流话题上,中小企业基本拿不到好排名,也就没有流量。一些优质、小众的内容,在传统机制下恐怕难有出头之日。

    但AI搜索能够很大程度的改变这种情况,以用户需求和体验作为更高的标准,而不是按照权威度排资论辈。

    即使你在大众意义上不出名,但也有可能是某个细分领域的专家、某些垂直类目的TOP1产品,你就是最懂用户的。那么,你创作的内容就有可能被AI作为最高优先级向用户展示,从而获得大量精准流量。

    研究显示, AI搜索给中小网站带去的流量占比,甚至比大网站要高很多。[7]

    虽然我们还没有拿到微信AI搜索的内测资格,但早就在腾讯出品的“元宝APP”上尝试过搜索功能。结果显示,“增长黑盒”这个公众号的内容,的确能够在某些垂直话题内获得良好的展示,甚至一些主流热门话题也可以(我们并不出名,对吧?)。

    流量的商业价值更高、更多元

    AI对于搜索的加成作用会呈现两个极端:一部分用户想要快速简洁,但也有不少人希望深度专业。吸引后一类用户的商业价值明显更高,因为他们更有可能对高客单价品类/服务、B2B专业领域感兴趣。

    一项针对头部B2B官网流量的研究发现,2024年AI搜索带来的流量竟然增长了500%!按照如此势头建模预测: 三年后,B2B官网的流量将有50%以上来自AI搜索。[8]

    我们再从日常消费的角度来看流量价值。一项针对交易类流量的研究显示(主要是amazon、ebay、etsy等电商网站): 通过AI搜索进入电商页面的用户,会比google来的停留时间更久,并且访问更多的页面内容。较长的会话持续时间结合较高的页面浏览量,意味着用户在评估产品时花费更长时间、购买的兴趣更高,显然可以总结为流量的质量更高。[9]

    另外一个值得注意的现象是:用户似乎不再满足于图文类的内容,流量价值评估更加多元化了。

    比如目前ChatGPT导流最多的地方是youtube,占比从2024年7月的0.17%提升到9月的3.9%;而amazon电商导流从0%增长到了1.1%。[10]

    如果未来微信的AI搜索能够引入视频号直播、私域导购、B2B小程序落地页、小程序电商商城,想象力还能再上一层楼。

    那么,整个AI搜索创造的增量规模会有多大?这里我们需要冷静看待。

    数据显示,仅仅通过ChatGPT联网功能给其他网站带来的流量,三个月增长了60%,每天都有上百万流量从ChatGPT导向外部网站。而从ChatGPT收到流量的独立域名数量,则翻了3倍。[11]

    然而,众多研究也表示,从整个互联网来看,目前AI搜索引擎给网站贡献的流量虽然增长快,但可能不足网站总流量的1%。只有在一些特定的行业或垂直领域,这个比例有可能超过5%,甚至能达到20%。当下通过AI搜索来获得用户增长,更像是“出奇制胜”,而非“颠覆传统”。

    AI搜索并不是像短视频一样全民爆发的机会,一方面需要时间慢慢积累,另一方面内容的独特性也是必备条件。知名研究机构Gartner预测:到2026年,传统搜索引擎的流量将下降 25%,搜索营销将把市场份额让给 AI 聊天机器人和其他虚拟助手。[12]

    那么企业在AI搜索趋势发展之初,应该提前进行哪些策略规划,并尝试落地呢?其实,如何从AI搜索中获得流量增长,是过去1年国外数字营销领域最热门的话题。由此也诞生了一个概念:Generative Engine Optimization(GEO)。

    GEO指的是优化网站上现有的内容,以使其更适合被语言学习模型(LLM)扫描并用作来源,让更多用户能够在AI搜索中发现内容并点击访问网站。与传统的搜索引擎优化(SEO)主要关注关键词和网站结构不同,GEO更侧重于内容的深度、用户意图和语义相关性,确保内容既能满足用户需求,又能被AI引擎有效识别和利用。

    下图展示了如何通过GEO让一家披萨店网站出现在AI回答的最高优先级,替代知名的纽约中央公园。[13]

    一篇最新的论文显示,通过GEO方法,能够将源内容可见性在AI搜索引擎中提高40%,也就意味着网站增加4成的流量机会。[14]

    Gartner同样预测,到2026年超过33%的网络内容将是以生成式AI搜索为目的而创建的。[12]

    当然GEO的实施策略非常复杂,也有一定的方法论。这里不再展开,仅做抛砖引玉,大家感兴趣可以在公众号后台回复关键字“GEO”领取论文完整版。

    商机2:

    达人营销和搜索广告有机会提升付费流量效率

    问题来了:如果你是一家大公司的CMO,更想要的东西必然是“大投入、大回报”,而不是中小企业眼中的“取巧”。因此,只有微信的AI搜索能够通过付费投放,获得规模化、稳定的增长,才具备增量的价值。

    这其中能有什么机会呢?

    我们认为,平台的新入口是否有资格被称为“流量红利”,关键点在于这个入口能否让平台自己赚到钱。毕竟,注重用户体验不等于做慈善,一个无法商业化的能力难免会沦落为边缘功能。

    用互联网黑话来说,这就是流量“货币化率”的程度。微信内无论是朋友圈、视频号、公众号,广告加载率一直是很低的,微信中其实有大量的流量无法被货币化。

    AI搜索如果能够重新利用这些流量,提升货币化率,那才有真正的想象空间。

    带动达人营销生态发展

    以下是我们的推测:AI搜索给微信带来的真正潜力在于达人营销。

    腾讯其实早就推出了一个对标小红书蒲公英、巨量星图的广告产品,叫做“腾讯互选广告平台”,就是官方进行达人筛选和投放的通道(没错,我们也是互选平台的优选达人)。最近两年随着视频号崛起,发展非常快。

    微信内无法被货币化的流量掌握在谁手里?肯定是各种公众号、视频号的达人,甚至是私域社群的群主 – 微信有5000万创作者。

    接下来,我们根据下面这张图,推理一下逻辑:

    如果微信AI搜索的体验更好,必然有更多人用

    用户能够发现更多达人内容,从而给达人带去了流量

    更多原生达人能成长起来,其它平台的达人也愿意迁移过来

    品牌看到了这些增量的优质内容,愿意花钱投放给达人,也能获得更好的回报

    达人赚了钱,有动力生产更多优质内容,AI搜索的质量更高、体验更好,用的人就越多

    平台赚了钱,更愿意投资AI技术、扶持达人、完善商业化产品

    整个闭环形成

    这种看似“曲线救国”的方式,实际上抓住了内容平台最核心的资源 – 优质内容。比起自己付费买搜索流量,广告主其实还有其它的选择:直接把达人们积累的自然流量买过来不就行了!

    我们在2024年Q4的调研显示,无论是微信视频号还是公众号,用户增长的驱动力TOP1就是内容的匹配程度,这点跟抖音和小红书有明显差异。“内容质量上升”这一驱动力,在微信内容生态内的表现较为显著。

    也就是说,现在微信急需构建有特色的达人生态,来维持用户的增量,然后才是吸引广告主投放预算。

    而这些达人种草内容,的确能够引发用户积极的后链路行为 – 这是广告主最乐意看到的。

    根据我们拿到的一些内部数据来看,微信内容生态的增长还是比较正向的 – 这进一步验证了我们的逻辑推断。

    在搜索结果中引入广告

    这是一个非常简单粗暴的做法,与传统搜索引擎变现的模式并无差别,但增加了广告位,从而带动广告加载率提升。

    2024年10月,Google率先做出大胆的商业化尝试:在AI搜索结果中加入广告,并在美国手机端正式上线。

    Google搜索中早就上线了一个名为“AI overview”的功能。这相当于在传统的Google搜索结果页面的最上面,增加了一个区块来展示AI对于搜索结果的总结。原本这里是没有广告的,但现在部分商品广告会出现在里面。比如用户搜索如何在洗衣服的时候去除褶皱,那么AI Overview中不仅有教程,还有洗衣液的产品广告。[15]

    AI overviews并非百分之百展现,而是根据搜索关键词的不同,有选择性的出现。有调研显示,去年8月时差不多有12.47%的搜索结果中包含AI Overviews,比前几个月有了大幅增长,但从整体广告加载率的角度来看肯定是很低的,Google也处于尝试阶段。[16]

    但至少Google的内部调研显示:用户认为这些广告有帮助,因为它们能在自己需要时迅速将其与相关的企业、产品和服务连接起来。[17]

    反观国内,目前基本无人敢迈出这一步,各大AI搜索工具主打的都是“无广告”。这甚至倒逼百度在年初推出AI搜索功能时,也把“无广告”作为了卖点。

    所以,按照微信一贯的保守作风,也不会这么早就把AI搜索本身商业化。

    比如昨天,有知名博主指出,腾讯元宝中AI回答的结果可能存在广告链接。腾讯公关总监张军马上出来辟谣“理论上不应该”。

    结语

    搜索原本是一个主动在信息的汪洋大海中寻找有用线索的过程,传统的SEO主要依靠搜索词/点击量等表层数据来实现。而对于微信生态来说,由于它早已渗透进人们日常生活的方方面面,接入AI后,搜索很可能会实现千人千面的效果。

    我们大胆推测,当一个用户在微信搜一搜里搜索“度假”,搜索结果不再是全网点击率最高或是最新发表的帖子,而是DeepSeek在排除隐私信息后,分析了该用户的公众号阅读习惯、视频号点赞内容、小程序访问记录等,综合给出的最优方案。

    我们认为,微信接入DeepSeek将会深刻重构流量分配的逻辑,所以对于品牌营销而言,不仅需要强化内容质量与关键词优化以提升索引权重,还要紧抓达人已有的高质高效流量,找到自己的精准用户。

    当公众号、视频号及全网数据搭配上「深度思考」,品牌营销的目的或许不再是占领消费者心智,而是成为时刻陪伴消费者的智能化伙伴。

    参考资料:

    [1] 微信搜一搜月活跃用户达8亿,“数据看板”如何助力精细化运营?|新京报

    [2] Bill Gates on possibility, AI, and humanity|Youtube

    [3] 63% of Websites Receive AI Traffic (New Study of 3,000 Sites)|ahrefs bolg

    [4] 《2023企业新媒体矩阵营销洞察报告》|新榜

    [5] 《2024年B2B社媒营销研究报告》|KAWO

    [6] Investigating ChatGPT Search: Insights from 80 Million Clickstream Records|Semrush Blog

    [7] 63% of Websites Receive AI Traffic (New Study of 3,000 Sites)|ahrefs bolg

    [8] How significant is AI chatbot traffic in B2B?|Growth Memo

    [9] Transactional AI traffic – a study of over 7 million sessions|Growth Memo

    [10] Chat GPT Search|Growth Memo

    [11] Investigating ChatGPT Search: Insights from 80 Million Clickstream Records|Semrush Blog

    [12] Gartner

    [13] What’s Generative Engine Optimization (GEO) & How To Do It (Source: https://foundationinc.co/lab/generative-engine-optimization)

    [14] GEO Targeted: Critiquing the Generative Engine Optimization Research|sandboxseo

    [15] Google Search’s New AI Overviews Will Soon Have Ads|WIRED

    [16] AI Overviews Research: Google Ads in the AIO-inclusive SERPs|SE Ranking

    [17] New ways for marketers to reach customers with AI Overviews and Lens|Ads & Commerce Blog

    来源:钛媒体

  • DeepSeek硬控智能家居!四大电视巨头抢跑,AR眼镜、智能音箱都上桌了

    DeepSeek硬控智能家居!四大电视巨头抢跑,AR眼镜、智能音箱都上桌了

    一大波AI家电,已经接入DeepSeek!

    这两周,AI电视、AI冰箱、智能音箱品牌扎堆宣布DeepSeek可用,有长虹海信创维TCL等大牌,还有小度这样的智能硬件代表。‍‍‍‍‍

    本周三,百度旗下智能硬件公司小度官宣,其AI智能助手小度正式接入DeepSeek模型。据小度淘宝旗舰店人工客服回复,小度智能屏可以下载并使用DeepSeek的App,但小度智能音箱暂不支持。

    可玩场景更丰富的AR眼镜,也在跟上DeepSeek潮流。上周星纪魅族 宣布其两款AR智能眼镜StarV Air2和MYVU已支持通过语音助手等功能调用DeepSeek-V3的能力,后续将支持用户自行选择是否调用DeepSeek-R1

    部分智能硬件厂商虽然尚未把DeepSeek能力直接整合到其产品中,但已经在研究结合DeepSeek的使用场景。 例如 Rokid 上周演示了其AR眼镜Rokid AR Lite可分屏使用DeepSeek网页版,以便打工 人用AI功能同时处理多项任务。

    DeepSeek已成为这些智能硬件的一大卖点,不少商品介绍页上直接注明“接入DeepSeek”。

    从国内三大主流电商平台搜索页来看,海信AI TV、长虹AI TV、创维AI TV、TCL AI TV的京东自营店铺产品页面和标题,均标注了“DeepSeek”。 这几家的淘宝官方旗舰店情况类似,但拼多多平台上暂未有明显标注。

    AR眼镜方面,李未可京东自营旗舰店和淘宝官方旗舰店的Chat AI眼镜,销售页面上多处标注了“接入DeepSeek-R1大模型”。拼多多平台上暂未有其官方店铺。

    Rokid的淘宝官方旗舰店则标注了“可使用DeepSeek”,但其京东自营旗舰店和拼多多官方旗舰店并未标注DeepSeek相关信息。

    总的来看,目前官方已确认会内嵌DeepSeek能力的智能家居硬件有:海信全部带智能体的AI TV长虹全部带沧海智能体的AI TV创维G7F Pro和A5F Pro两款AI TV星纪魅族StarV Air2和MYVU两款AR智能眼镜由TCL App AI助手和伏羲AI平台支持的全线TCL智能家居产品

    01.

    4家AI TV官宣

    将接入DeepSeek-R1,可语音对话

    接连3天,海信、长虹、创维、TCL相继宣布将DeepSeek能力整合到自家的AI TV中,以提升AI TV与用户的语音交互能力

    1、海信

    海信2月12日宣布,其全屋智能生态已深度整合DeepSeek模型相关技术,包括海信AI TV在内的智能家居软硬件将逐步全面升级DeepSeek能力。

    按海信方面预期,本周内所有搭载智能体的海信AI TV将完成升级,并全面支持DeepSeek。今年海信AI TV的新品也将自带DeepSeek能力。

    正式接入DeepSeek后,用户可以使用海信电视遥控器小聚AI键打开,或者直接语音唤醒DeepSeek对应的智能体对话界面。

    此外,海信自研的星海大模型深度融合DeepSeek能力后,将通过模型蒸馏、强化学习等技术,提升深度思考和推理能力,从而改善其全屋智能生态的人机交互体验。

    2、长虹

    2月13日,长虹宣布所有搭载了沧海智能体的长虹AI TV,均已接入DeepSeek模型。在长虹AI TV上,用户可以自行选择是用DeepSeek“深度思考”模式,还是“快速响应”模式,前者由DeepSeek-R1满血版支持。

    长虹方面称,现在用户在长虹AI TV的AI对话界面,可以通过语音对话的方式,与搭载DeepSeek能力的沧海智能体问答、交流,或要求其执行“清空问题”等操作。

    3、创维

    2月14日,创维集团发布了搭载DeepSeek能力的AI TV新品G7F Pro和A5F Pro。其DeepSeek能力来自于接入满血版DeepSeek-R1的创维酷开AIOS操作系统

    创维方面称,得益于DeepSeek能力,G7F Pro支持方言识别和模糊语义理解,从而能更准确地帮助用户找到影视、音乐等内容。其还能完成智能剪辑、生成氛围音乐、互动绘画、AI口语陪练、定制绘本、生成出行计划、预订行程等任务。

    4、TCL

    TCL实业于2月17日宣布正式接入DeepSeek,并应用于TCL智能家居、移动通讯、内部研发等产品线和业务,以提升用户体验和研发效率。

    其中,TCL智能家居矩阵的核心入口是TCL App AI助手。该AI助手接入DeepSeek后,升级了家电说明书问答和产品控制两大功能。在家电说明书问答方面,AI助手的回答速度和质量,及其模糊语义理解能力都有所提升,并且可以多轮追问。在产品控制方面,AI助手学会快速拆解复杂指令,实现跨设备协同响应。

    除了TCL智能家居中控,其电视、空调等品类的智能家居产品也接入了DeepSeek能力。

    TCL电视是通过伏羲AI平台接入DeepSeek能力的。用DeepSeek重点升级伏羲AI平台的多模态理解、知识处理、内容服务等能力后,TCL电视的音画质、人机交互和内容生成效果均有所提升。当前TCL电视方面已针对用户使用场景构建了16大智能体,后续将借助AI技术进一步细化场景和优化智能体。

    TCL空调则是通过TCL伏羲大模型和AI助手接入DeepSeek能力的。其主要强化了语音交互和故障诊断能力,可结合历史数据和上下文信息,预测潜在风险并提前预警。

    02.

    星纪魅族抢跑DeepSeek版AR眼镜,

    Rokid支持三屏使用

    在AR眼镜领域,虽然Rokid率先放出其AR眼镜可使用DeepSeek功能的消息,但星纪魅族抢先在其AR智能眼镜产品中实际接入了DeepSeek能力,推出首款内嵌DeepSeek V3模型的AR智能眼镜。

    1、星纪魅族

    2月14日,星纪魅族官宣,其AR智能眼镜StarV Air2、MYVU已接入DeepSeek大模型,支持在AI语音助手等功能中,根据用户提问内容动态调用DeepSeek V3的能力。而StarV Air2和MYVU的用户也可以直接语音唤醒带DeepSeek能力的AI语音助手,不需要上手操作。

    按计划,StarV Air2和MYVU用户端后续还会开放DeepSeek-R1大模型,并且用户可以自行选择是否调用该模型。

    星纪魅族方面称,该公司将会基于DeepSeek-R1模型及其相关技术,提升现有模型对用户潜在意图的理解能力,以帮助用户准确地做出决策,另外还能通过Flyme AIOS操作系统完成复杂任务的执行。

    2、Rokid

    Rokid方面于2月13日发文称,其AR眼镜Rokid AR Lite现能分屏使用DeepSeek网页版

    在Rokid给出的例子中,用户戴上Rokid AR Lite后,可以分屏使用DeepSeek功能,在三联屏上操作DeepSeek、查资料、编辑文档,而不用切换界面。

    不过,Rokid方面目前没有官宣,是否将DeepSeek能力整合到其AR眼镜的原生AI能力中。

    03.

    结语:两大方式部署智能家居

    DeepSeek能力,价格优势未显

    现阶段,智能家居硬件升级DeepSeek能力的方式主要有两大类,一种是通过AI智能助手或AI智能体接入后应用DeepSeek能力,例如海信AI TV、长虹AI TV;另一种是先把DeepSeek能力接入底层AI生态后,再由底层AI生态统一重塑智能硬件的AI交互能力,例如创维AI TV、TCL空调。

    而在价格方面,DeepSeek模型高性价比部署的优势有待进一步发掘。

    以TCL 65英寸的T6L QD-Mini LED AI TV为例,截至2月19日晚6点,该款AI TV在京东金榜平板电视排行榜排名第一。其京东自营官方旗舰店售价为3499元,国补预计到手价为2799元。TCL另一款未标注“接入DeepSeek”、同是65英寸的V8H Pro-J AI TV,京东自营官方旗舰店售价为2099元,国补预计到手价为2039元。

    可以看到,带有“DeepSeek”标注的AI TV,比其他未带有“DeepSeek”标注的AI TV,售价大概会高出1000元至1500元不等。这一差值未来有望进一步缩小。

    来源:微信公众号“智东西”

  • DeepSeek 创始人梁文锋牛逼的个人经历

    DeepSeek 创始人梁文锋牛逼的个人经历

    这个春节,DeepSeek  实在太火爆了

    DeepSeek 的爆火,引发了全国人民的关注,大家纷纷好奇这位幕后创始人究竟是何许人也,我也不免俗地产生了浓厚兴趣。尤其是他前不久刚刚参加了总理主持的座谈会,紧接着在不到一个月的时间内,前天又出席了中国规格最高的民营企业座谈会

    与马化腾并肩坐在第一排,其受重视程度可见一斑

    然而,这位创始人却异常低调,低调到何种程度呢?

    在撰写这篇文章时,我按照常规在 DeepSeek上搜集资料,却发现只要涉及到“梁文锋”这三个关键字的问题,信息均显得稀缺。

    DeepSeek 总是以换话题的方式回应我,似乎在暗示着更多的探讨空间。于是,我转而登录腾讯的 DeepSeek R1 平台,搜索有关“梁文锋”的信息,以完成这篇文章的撰写。由此可见,DeepSeek 的数据分散策略或许有其道理,可以有效避免单一企业的信息霸权。

    让我们先从梁文锋的求学之路说起:

    1985年,他出生于广东省湛江市下辖的吴川市覃巴镇,成长于一个普通家庭,父母都是小学教师。

    2002年,他以吴川一中的高考状元身份,考入了浙江大学,主修电子信息工程专业。尽管他的分数足以进入清华,但他坚持选择了浙江大学,因为这里能让他学习心仪的专业。这反映出他在高考时便对自己的人生方向有着清晰的规划,不为国内顶尖学府的诱惑所动。

    2007年,他继续在浙江大学深造,攻读信息与通信工程硕士学位,并于2010年毕业,其硕士论文题为《基于低成本 PTZ 摄像机的目标跟踪算法研究》。

    值得一提的是,近年来成功的企业家,比如:刘强东、雷军、虞仁荣、梁文锋等,往往有着优异的高考成绩或显赫的学历背景。随着时代的发展,创业越来越依赖于高科技,对创始人的背景要求也日益提高。而能成为高考状元,本身就是一种能力的体现。

    接下来,我们来看看梁文锋的创业历程

    毕业后,他没有像大多数同学那样加入大公司,而是选择在一个简陋的环境中,探索计算机赚钱的各种可能,他的生活几乎被代码和数据包围。

    在探索过程中,他偶然接触到了量化投资,并在发现其盈利潜力后,决定组建公司发展这一领域。

    2010年,他大学毕业,同年沪深300股指期货正式推出。

    2013年,他与浙江大学校友徐进共同创立了人生中的第一家公司——杭州雅克比投资管理有限公司。

    2015年,他成立了杭州幻方科技,专注于 AI 量化投资,并在当年的市场波动中依靠高频策略取得了显著成就。

    2016年,他推出了首个 AI 模型,到2017年管理规模达到30亿元,2018年获得了私募金牛奖。

    2019年,他自主研发了“萤火一号”训练平台(配备了 1100 块 GPU),管理规模突破百亿。

    2021年,管理规模更是突破千亿,使他成为量化私募界的“四大天王”之一。

    这一切成就,都是他在量化投资领域的成长轨迹,短短不到10年,他就从一个行业新手成长为国内顶尖的私募机构领导者。值得一提的是,梁文锋在招聘时有一个特点,他偏好那些没有基金背景的“外行”人才。

    在 AI 领域的发展又是另一条线索

    在运营量化基金期间,他为了训练模型进行股票交易,提前积累了大量的 GPU,其数量足以与国内一线大厂媲美。

    有人传言,DeepSeek 拥有上万张 GPU,虽然这一说法未经证实,但可以肯定的是,其 GPU 数量在国内绝对是首屈一指的。

    梁文锋曾说过,他的核心动力是好奇心,对 AI 能力边界的好奇。在好奇心的驱使下,他创建了 DeepSeek,不为利润,只为探索通用大模型的无限可能

    2023年7月,他创立了 DeepSeek(深度求索),进军通用人工智能(AGI)领域。

    2024年5月,发布了 DeepSeek-V2,其定价仅为 GPT-4 Turbo 的1%。

    2024年12月,推出了 DeepSeek-V3,并开源了技术细节。

    2025年1月,发布了 DeepSeek-R1 模型,并参加了国务院总理主持的座谈会。

    DeepSeek 的具体迭代路线,可以通过下方的图表来了解:

    最后,分享两个有趣的八卦

    一是关于梁文锋的创业伙伴徐进的近况

    比较好奇,最开始和梁文锋创业的徐进去哪里了,大概查了一下有这么一个小八卦。
    2023 年 10 月,一条 “股民的钱去了哪里?都被头部量化私募股东割韭菜来包养二奶!” 的微博小作文引发关注。发帖人是徐进的妻子,她控诉徐进不但长期 PUA 她,还在其面前公开出轨,用投资人的钱大肆包养二奶,玩各种大尺度色情游戏,甚至要求她们住在一起。
    2023 年 10 月 26 日,幻方量化官方公众号发布情况说明称,徐进作为公司团队成员,其对于个人家庭事务处理不当,引发负面舆论,对公司声誉造成不良影响,决定对徐进作出停职处理。

    二是关于捐款的趣事。2022年,幻方量化向慈善机构捐赠了2.2138亿元,而公司员工“一只平凡的小猪”个人捐赠了1.38亿元。后来证实,“一只平凡的小猪”正是梁文锋。

  • ‍DeepSeek 爆火背后,必须看清的3大趋势

    ‍DeepSeek 爆火背后,必须看清的3大趋势

    一文读懂,怎样高效使用DeepSeek。

    内容来源:量子教育,企业人才培养优质内容及创新解决方案服务商。

    分享嘉宾: 陈旸,阿里云MVP,清华大学计算机博士。

    春节前夕,DeepSeek-R1模型公布开源,下载量迅速登上了免费榜榜首。随后,引起了美国资本市场的大波动,算力巨头英伟达出现了股价暴跌17%的罕见跌幅……

    开源后的DeepSeek到底对资本、科技产生了何种影响?是什么让其具有这么大的能量?我们如何拥抱DeepSeek带来的新AI时代?继DeepSeek之后,AI将有什么新的趋势?

    这篇文章,将由清华大学计算机博士、阿里云MVP(人工智能领域最有价值专家)陈旸为我们一一解读上述问题。

    一、DeepSeek的影响力

    1.对手惶恐,资本青睐

    2025年1月20日,DeepSeek-R1模型正式公布;1月26日在中国区、美国区苹果App Store中的免费榜上同时冲到了第一名。

    随后,美国资本市场出现大幅波动,标准普尔500指数在10天内跌幅接近10%。英伟达股票在1月27日当天暴跌了17%,美股主要科技公司(英伟达、微软、Meta、亚马逊等)市值共计蒸发上万亿美元。

    在DeepSeek-R1出现前,算力是大模型训练的关键因素,美国限制中国使用英伟达的显卡,因此大家普遍会认为美国在AI大模型的领先优势是“断层式”的,这也是美国对华科技限制采取“小院高墙”战略的底层逻辑。

    DeepSeek用少量的显卡训练出了与其媲美的模型,相当于打破了美国对华在人工智能领域的战略限制。

    就连OpenAI的CEO山姆奥特曼也重新思考了OpenAI的开源战略,迅速推出了o3-mini模型,在使用中开放了思考推理过程。

    在这之前,OpenAI并不是完全开源的,我们只能使用o1模型,现在我们也可以使用其o3模型进行更深入的思考。

    通过OpenAI o3 mini与DeepSeek R1的使用对比,可以发现DeepSeek-R1的思考时间更长,思考逻辑更完整,推理结果更好。

    同时,DeepSeek会将推理过程完整地展现出来,而OpenAI以前不会展示思考的过程,而思考的过程其实非常有价值的。

    今年1月,美国宣布“星际之门”计划,软银向OpenAI投资400亿美元,用于OpenAI对星际之门的承诺,投后估值达3000亿美元;而具有对标OpenAI能力的DeepSeek,同样受到国内近百家资本的青睐,对其表达了投资意向,可以预见DeepSeek的估值将会上到一个新的高度。

    2.DeepSeek开源,行业争相部署

    在DeepSeek宣布开源R1之后,各个行业都开始集成或部署DeepSeek的相关模型。

    国内的华为云、百度智能云、阿里云、腾讯云、京东云、火山引擎以及三大运营商等云平台都相继部署了DeepSeek的R1/V3等模型。

    国外的亚马逊、微软、英伟达、AMD等平台也快速地将DeepSeek R1/V3模型部署或集成到相关的产品和服务上。

    在产业端,吉利、岚图、东风、广汽、智己、长城、宝骏、零跑等车企也宣布与DeepSeek进行融合,未来智驾上也可以体验到与DeepSeek的交互。

    金融领域,国泰君安、国金证券、兴业证券、广发证券等证券机构进行了本地化部署和调试,应用于行业研究、市场研判、风险管理、信息检索、文档处理等多种场景。

    当然,部署与开发完成还需一定的测试过程,但也体现出各个行业不甘落后的状态,也说明与先进的大模型融合使用将是大势所趋。

    二、DeepSeek撕破了算力面纱

    1.DeepSeek的完全版与蒸馏版

    DeepSeek完全版的尺寸是671B,由于采用创新的MOE架构,在推理过程中激活少部分参数,因此推理速度更快,所需训练资源更小。

    DeepSeek蒸馏版有Qwen2.5-Math-1.5B、Qwen2.5-Math-7B、Uama-3.1-8B、Qwen2.5-14B、Qwen2.5-32B、Llama-3.3-70B-Instruct等多个尺寸。它选了两个开源模型进行训练,国内是Qwen2.5,国外则选用了Llama,蒸馏模型更小更快,但能力相对弱一些。

    对于性能要求不太高、GPU资源有限的企业,蒸馏版是一个更优选择。因为完全版需要的显存是496GB,而R1:1.5B只需要2G显存、R1:7B也只需要8G显存,最高的R1:70B蒸馏版也只需要128G显存,大幅降低了私有化部署的资源要求。

    2.蒸馏技术路线,让DeepSeek R1性能大幅提升

    在R1模型之前,DeepSeek推出V3通用模型,在推理速度上相较历史模型有了大幅提升。一度在大模型主流榜单中,位于开源模型榜首,与世界最先进的闭源模型也不分伯仲。

    而V3模型最大的特点是训练成本极低,需要的显卡数量和训练时间较于OpenAI只是一个零头。

    2024年12月,V3模型正式推出,但当时并没有太大波澜。

    而以V3模型为基础,通过新的奖励机制GRPO(group relative policy optimization),并使用规则类验证机制自动对输出进行打分,在一个多月时间内训练出了DeepSeek-R1模型,性能堪比GPT-o1模型,使R1迅速火出了圈。而R1模型与V3模型相比,其性能也有了大幅提升。

    R1模型遵循MIT License(一种非常宽松的开源许可协议,允许用户自由地使用、修改、分发和商业化软件或模型。),允许用户通过蒸馏技术借助R1训练其他模型。

    相比之下,Meta Llama的License相对严格,虽然LLaMA3是开源的,但许可协议限制了商业用途和对模型的修改,比如新的模型如果使用LLaMA,需要名称上带有LLaMA标识。

    DeepSeek-R1上线API,对用户开放思维链输出,因此一经发布,多家企业就宣布融合DeepSeek-R1的各个版本,因为是完全开源的模型,在版权上就减少了不少风险。

    在开源DeepSeek-R1-Zero和DeepSeek-R1两个660B模型的同时,通过DeepSeek-R1的输出,蒸馏了6个小模型,其中32B和70B模型在多项能力上实现了对标0penAlo1-mini的效果.

    3.DeepSeek的创新策略及产生的效果

    ① 创新策略

    第一,引入MLA(Multi-Head Latent Attention)。

    在“All you need is attention”的背景下,传统的多头注意力(MHA,Multi-Head Attention)的键值(KV)缓存机制事实上对计算效率形成了较大阻碍。缩小KV缓存(KV Cache)大小,并提高性能,在之前的模型架构中并未得到很好的解决。

    DeepSeek引入了MLA,一种通过低秩键值联合压缩的注意力机制,在显著减小KV缓存的同时提高计算效率。低秩近似是快速矩阵计算的常用方法,在MLA之前很少用于大模型计算。

    从大模型架构的演进情况来看,Prefill和KV Cache容量瓶颈的问题正一步步被新的模型架构攻克,巨大的KV Cache正逐渐成为历史(实际上在2024年6月发布的DeepSeek-V2就已经很好的降低了KV Cache的大小)。

    第二,创新使用了DeepSeek-MoE架构策略。

    V3使用了61个MoE(Mix of Expert混合专家)block,虽然总参数量很大,但每次训练或推理时只激活了很少链路,训练成本大大降低,推理速度显著提高。

    第三,DeepSeek采用混合精度框架。

    在不同的区块里使用不同的精度来存储数据。我们知道精度越高,内存占用越多,运算复杂度越大。

    DeepSeek在一些不需要很高精度的模块,使用很低的精度FP8储存数据,极大的降低了训练计算量。

    ② 创新策略带来的效果

    第一,计算速度快,成本低。

    架构设计方面:DeepSeek MoE架构在推理时仅激活部分专家,避免了激活所有参数带来的计算资源浪费;MLA架构通过降秩KV矩阵,减少了显存消耗。

    训练策略方面:在训练过程中采用多token预测(MTP)目标,即在每个位置上预测多个未来token,增加了训练信号的密度,提高了数据效率。

    在训练中,对于占据大量计算量的通用矩阵乘法(GEMM)操作,采用FP8精度执行;同时,通过细粒度量化策略和高精度累积过程,解决了低精度训练中出现的量化误差问题。

    第二,推理能力强大。

    强化学习驱动:DeepSeek-R1通过大规模强化学习技术显著提升了推理能力。在数学、代码和自然语言推理等任务上表现出色,性能与OpenAl的o1正式版相当。

    长链推理(CoT)技术:DeepSeek-R1采用长链推理技术,其思维链长度可达数万字,能够逐步分解复杂问题,通过多步骤的逻辑推理来解决问题。

    三、如何高效使用DeepSeek?

    1.DeepSeek的多种使用方式及其表现

    第一种,直接访问DeepSeek官网。虽然免费,但由于访问量过大,表现极不稳定。

    第二种,在GitHub上下载cherry Studio(或者一些其它工具),使用Cherry Studio+DeepSeek API做本地部署。但官方DeepSeek API也存在不稳定的情况。

    第三种,使用Cherry Studio+第三方云厂商DeepSeek API做本地部署。使用第三方云厂商的DeepSeekAPI稳定很多,相比官方API价格也便宜。

    Cherry部署之后,除了DeepSeek,还可以使用OpenAI、月之暗面、智谱清言等API。

    假设我们来解一道高考数学题:设集合A中的元素皆为无重复数字的三位正整数,且元素中任意两者之积皆为偶数,求集合中元素个数的最大值是多少?

    这是一个非常复杂、难度较大的问题,如果采用通义千问等通用大模型,大概率得不出正确答案,而DeepSeek通过分步骤的长链深度思考,一步步给出了正确答案。

    2.简单应用:DeepSeek+知识库

    以构建投资研究框架为例,我们来展示用DeepSeek+知识库的使用。

    第一步,配置embedding模型。嵌入模型,把知识库进行向量化,并进行快速检索;选择嵌入模型(可以使用硅基流动),在Cherry Studio设置中,设置对应的API Key。

    第二步,整理知识库。在Cherry studio的知识库中,配置投研报告知识库,上传相关投研报告(处理知识库主要用到文字,所以知识库支持PDF、PPT、Excel、word等多种文本文件)。完成后,你就在本地有了知识库。

    第三步,在智能对话助手中,选择对应的知识库。

    最后一步,针对知识库进行提问。可以看到,DeepSeek会进行长链思考并展现思考过程。

    需要注意,虽然云厂商不会主动收集你的数据,但并不能100%保证数据安全,对于企业的敏感数据(如财务、营销数据),建议进行本地私有化部署。

    3.复杂应用:DeepSeek+Cursor

    知识库并不能完全展现DeepSeek的深度思考能力,借助于其它工具(如Cursor)可以完成更复杂的任务,如物理世界的小球碰撞实验。

    首先,我们在Cursor的【File->Preferences->Cursor Settings】中设置DeepSeek-r1和DeepSeek-v3模型。

    然后,在openAI API Key中进行设置(这里采用openAI的协议),可以使用自定义的模型。

    设置好DeepSeek-r1和DeepSeek-v3模型之后,接下来就可以在Cursor中选择该模型进行编程。

    我们看一个实际的例子:一个红色的小球在三角区域内运动,碰到边界就反弹,编写一个HTML网页。

    Cursor会新建一个工程,动态展示编程结构。而DeepSeek在长链思考之后,编写出HTML代码,但代码运行可能不符合要求,需要进一步调整,调整的过程我们也只需发出语言(文字对话)指令。

    调整过程如下:

    基于之前的思考,帮我完善HTML。(动作:DeepSeek思考并完善HTML代码。效果:HTML样式有了调整,但是小球还是会飞出三角区域,需要进一步调整。)

    小球弹了之后,弹出去了啊,帮我检查代码……

    考虑小球的重力,以及三角区域的支撑力,小球的弹力进行完善……

    每次运行,小球可以从随机的任意方向抛出……

    小球的弹力大一些……

    最后到地面都垂直弹跳了,不是应该还会滚动么,就是有水平的速度……

    下面增加一个刷新按钮,可以重新执行这个HTML……

    中文显示是乱码,另外考虑到手机显示,页面需要做自适应……

    经过多次调校,DeepSeek终于生成了符合我们要求的HTML代码,并在Cursor工程中进行效果演示。

    通过上面的演示,我们发现,即使不懂代码,也可以通过DeepSeek来完成机器编程,获得期望的效果。

    4.这一次,AI真的“智能”了

    从AlphaGo与围棋世界冠军李世石大战开始,人工智能逐渐介入我们的生活。机器第一次能进行自主思考,完成简单(其实战胜世界冠军这个任务并不简单)任务。

    在发展中的人工智能也一度被我们吐槽为“人工智障”,但从OpenAI开始,人工智能逐渐会处理一些复杂任务了,而DeepSeek展现出了超越普通人的长思维链路,我们不得不感叹:AI真的“智能”了。

    可见,在学习过程中,对于复杂任务的处理有一个逐渐成熟的过程,一切都可以从最简单的开始。当你具备了一些常见的思考、自我更新、自我迭代的能力,就可以完成一些更有价值的作品。

    比如,如果你是一名投资分析师,会用哪种AI助手来辅助完成投研报告呢?如果用通用大模型(相当于文科生)写报告,可能也会完成任务,但显然缺乏严谨的逻辑推理过程。

    因此可能带来市场的盲目跟投或者疯狂踩踏,而DeepSeek的R1模型的严谨推理过程,可以胜任你的助手了。

    四、DeepSeek掀桌子,打通了另一条路

    1.李飞飞50美金复刻R1模型

    在R1及其蒸馏模型推出后,李飞飞团队用不到50美金的云计算费用,成功训练出了一个名为s1的推理模型。该模型在数学和编码能力中的表现,与0penAI的o1和DeepSeek-R1等尖端推理模型不相上下。

    s1模型的训练只用了1000个样本数据,具体过程是:使用Gemini对这1000个样本完善推理过程,然后对Qwen模型进行监督微调。

    消息出来,在网络上一度刷屏。但我们也要了解这个模型成功的背景:

    其一,s1模型是站在巨人的肩膀上,在阿里Qwen和谷歌Gemini大模型进一步训练得到的;

    其二,成本之所以低,是因为只使用了1000个样本(对于企业来说,1000个样本可能足够了,但对于训练完整的大模型是不可能的),通过26分钟花费50美金,达到了一个比较理想的推理效果(与o1相差不大)。

    也就是说,在每个企业中,未来大家都有机会用1000个样本经过精细训练就可能达到类似效果。

    如果稍微展开,可以发现s1模型背后有自己的独特方法论:

    首先,数据集的构建有三个标准(难度、多样性和质量),从这三个标准出发,挑选了1000个问题及对应的推理路径。

    S1的数据集包含了不同领域,如数学竞赛、物理竞赛,并且新增了两个原创数据集;s1-prob和s1-teasers,分别涵盖了概率问题和定量交易面试中的难题。

    其次,采用了预算强制技术。这是一种控制测试时计算的技术,通过强制终止或延长模型的思考过程(通过添加“wait”字符串),使模型有机会重新检查答案,从而可能纠正错误的推理步骤。

    在预算强制技术下,有三个强制策略。

    其一,设定思考时间限制:当模型开始处理一个问题时,首先为其设定了一个最大思考时间(以token数量衡量)。如果模型在这个时间内完成了思考并准备给出答案,则按照正常流程进行。

    其二,强制结束思考过程:如果模型生成的思考token超过了预设的最大值,系统会强行终止模型的思考过程。这通常是通过添加一个特殊的end-of-thinking token delimiter实现的,促使模型停止进一步的推理,并转向生成最终答案。

    其三,鼓励更深入的探索:如果希望模型花更多的时间来考虑一个问题,可以抑制end-of-thinking token delimiter的生成,并在当前的推理路径后面追加“wait”字符串=>为了让模型有机会重新评估其先前的推理步骤,可能会纠正一些快速但不准确的回答。

    2.继DeepSeek后的AI趋势

    趋势一:小模型将成为主流(大模型蒸馏)。

    通过蒸馏技术将大型模型的推理能力成功迁移到小型模型中,显著提升了小型模型的性能(DeepSeek-R1-Distil-Qwen-7B在AIME 2024竞赛中击败了32B模型)。

    趋势二:使用合成数据进行训练成为主流。

    虽然蒸馏数据是公开的秘密,但很多表现不是蒸馏能解释的。比如v3的中文能力,很多用词和表达方式非常接地气,可能是用了数据合成方法做的预训练。

    趋势三:AI模型将自我迭代(强化学习新范式)。

    让模型自己出题自己做,自己检查。第一步:模型自己出题(比如100万道);第二步,模型自己检查对错;第三步,筛选验证对的内容,将结果与思维链合成新的数据。

    比如在100万道题目中,模型检查后发现有1万道能验证是对的,那么解出这1万道题的思维链就成了新的训练数据。通过不断迭代,探索出之前人类没有探索到的地方(类似AlphaGo-Zero战胜AlphaGo)。

    来源:微信公众号 “笔记侠”