DeepSeek 最强国产大杀器?英伟达一家就没了近 4.3 万亿

dalao @ 2025年01月28日 热点

DeepSeek,不仅刷屏全球互联网,还被多次 "挤" 到宕机,更是一夜暴击美股,吓崩英伟达,分析师惊呼 AI 企业迎来 "斯普特尼克时刻"。

周一,欧美科技股重挫,英伟达跌近 17%,市值蒸发近 6000 亿美元 (近 4.3 万亿人民币)为美股史上规模最大,芯片指数大跌超 9%,博通跌超 17%,台积电跌超 13%。

纳指跌超 3% 领跌,纳指 100 创六周最大跌幅且市值蒸发近 1 万亿美元,芯片指数大跌超 9% 为 2020 年 3 月以来最差表现,欧美 AI 供应链概念股下挫,但亚马逊和 Meta 转涨。

DeepSeek 引发了全网激烈讨论,而真正引人注目的是其打破传统 AI 资本支出规模。

开发该模型仅用 2 个月,花费不到 600 万美元,相比之下,Meta 团队仅薪酬就超过 DeepSeek 全部培训预算,Open AI 每年支出超过 50 亿美元,"星际之门" 计划正生成投资 5000 亿美元……

华尔街认为,AI 企业盈利或面临走低风险、也有将此类比 AI 泡沫破灭时刻,同时还有认为领先 AI 公司不会放弃先进 GPU。对 AI 行业而言,人工智能开发变得更加容易,硬件要求和成本将大幅下降,竞争急剧加剧、科技巨头 "护城河" 变 "小水坑"。

而海外网友才开始经受 R1 的 "洗礼",DeepSeek 又发布了新的模型,给闭源模型带来开源图像生成的震撼……


 DeepSeek 暴击欧美科技股,英伟达市值蒸发近 4.3 万亿,规模创美股史上最大

DeepSeek 暴击华尔街,引发 AI 概念股的估值泡沫破裂担忧,欧美科技股市值或蒸发 1.2 万亿美元、Meta 紧急组建多个小组研究复制 DeepSeek 的数据和技术。

截至周一美股收盘,英伟达下跌近 17%,收报 118.42 美元,单日的市值蒸发规模达到 5890 亿美元,合人民币 4.27 万亿元,为美国股市历史上最大,这打破了之前的纪录。

去年 9 月初,英伟达单日重挫超 9%,市值单日蒸发 2790 亿美元,当时也创下了美国股市历史上最大的单日市值蒸发规模。本次市值跌幅远超上一次的纪录。

周一,英伟达也同时失去全球市值最大公司的宝座,不及苹果和微软,跌至第三。

 由于英伟达在主要指数中占有较大的比重,其股价下跌对整个美股市场产生了重要影响。据彭博社数据,包括本周一在内,标普 500 指数市值损失最大的 10 个交易日中,有 8 次都是与英伟达大跌相关。

周一纳指跌超 3%,标普 500 指数跌近 1.5%,资金轮转至道指,道指上涨 0.65%。英伟达两倍做多 ETF 收跌将近 34%。美股半导体 ETF 重挫超 9.8%,这是 2020 年 3 月 16 日以来的最大单日跌幅,2020 年当天收跌超 14%。

以英伟达为首的科技股重挫,令包括英伟达 CEO 黄仁勋在内的全球前 500 位富豪的资产净值在 1 月 27 日合计蒸发 1080 亿美元。其中,黄仁勋财富一日损失 201 亿美元。

同日,英伟达表示,DeepSeek 是出色的人工智能(AI)进步,推理即运行 AI 模型的计算过程需要大量英伟达 GPU 和高性能网络支持。

英伟达两倍做多 ETF 收跌将近 34%。美股半导体 ETF 重挫超 9.8%,这是 2020 年 3 月 16 日以来的最大单日跌幅,2020 年当天收跌超 14%。

欧美芯片制造商以及为 AI 和数据中心供电的全产业链公司齐跌。芯片指数大跌超 9%,博通跌超 17%,台积电跌超 13%,AMD 和阿斯麦跌约 6%,Altman 押注的核电股 Oklo 跌近 26%,投资 AI 的科技巨头中,微软跌 4.6% 后跌幅砍半,亚马逊和 Meta 转涨,苹果涨超 3%。

受避险情绪推动,美元和美债收益率急跌至五周多最低,交易员还上调美联储降息押注,完全消化年内降息 50 个基点美元。风险资产美油盘中跌 3%,比特币一度跌穿 10 万美元,股市大跌带来的流动性问题令黄金也跌超 1%。


 华尔街: AI 企业盈利面临走低风险、美股迎来 AI 泡沫破灭时刻

DeepSeek 对整个 AI 行业意味着什么?华尔街怎么看?

杰富瑞分析师 Graham Hunt 团队指出,科技巨头们面临资本支出合理性的质疑,或导致数据中心收入和利润增长轨迹走低。

瑞穗则提到,这发生在一个 "痛苦的时刻":

 

我们刚刚看到星际之门公告(到 2028 年预计约为 5000 亿美元)和 Meta 将资本支出正式提高到 600-650 亿美元以扩大 Llama 规模,当然还有微软 800 亿美元的公告…… 市场现在想知道这是否是市场人工智能泡沫破灭的时刻(例如思科的互联网泡沫),英伟达是标普 500 指数中权重最大的单一公司,占 7%。

 

花旗分析师 Atif Malik 认为, 尽管美国公司在最先进 AI 模型上的主导地位可能会受到挑战,但我们估计在不可避免的更严格的环境中,美国公司仍然占据优势。因此,我们预计领先的 AI 公司不会放弃更先进的 GPU,最近 AI 资本支出公告表明了对先进芯片的需求。

伯恩斯坦报告认为, DeepSeek 实际上讨论的是两个模型系列,但价格战的言论足以让 Mag7 本已不明朗的投资回报率雪上加霜。

 

DeepSeek 的定价确实远远超过了竞争对手,该公司的模型定价比 OpenAI 的同类模型便宜 20 到 40 倍, 当然,我们不知道 DeepSeek 在这方面的经济效益(而且这些模型本身是开放的,任何想要使用它们的人都可以免费使用),但整个事情提出了一些非常有趣的问题,关于专有与开源努力的作用和可行性,可能值得做更多的研究……

 

高盛分析师称,目前的明确共识是,谨慎看跌美国科技股,直到公布美股科技巨头 Mag 7 财报为止,财报的重点是 AI 相关资本支出。DeepSeek 带来的部分关键影响是,软银对 "星际之门" 的投资回报、资本雄厚的互联网巨头与初创企业可能存在竞争、推理相比预训练所需的计算资源大幅减低、中国企业有进一步全球扩张的潜力。
 

 对 AI 行业意义方面,dropbox AI 副总裁 Morgan Brown 做了一系列的总结:

 

1、首先,介绍一些背景:目前训练顶级 AI 模型的成本极其高昂。OpenAI、Anthropic 等仅在计算上就花费了 1 亿美元以上。他们需要拥有数千个 4 万美元 GPU 的大型数据中心,这就像需要一整座发电厂来运行一家工厂一样。 2、DeepSeek 突然出现并说,如果我们花 500 万美元做这件事会怎么样?" 他们不只是说说而已 —— 他们真的做到了。他们的模型在许多任务上匹敌甚至击败了 GPT-4 和 Claude。人工智能世界震动了。 3、怎么做到的?他们从头开始重新思考一切。传统 AI 就像是把每个数字都写成 32 位小数,DeepSeek 是如果我们只使用 8 位小数呢?它仍然足够准确!砰 —— 所需内存减少了 75%。 4、然后是他们的多标记预测,普通人工智能的阅读方式就像一年级学生一样:"这…… 猫…… 坐……"DeepSeek 一次读完整个短语,速度快 2 倍,准确率高 90%。当你处理数十亿个单词时,这一点很重要。 5、但真正聪明的是:他们建立了一个 "专家系统"。他们没有使用一个试图了解一切的大型人工智能(比如让一个人同时成为医生、律师和工程师),而是拥有只在需要时才醒来的专门专家。 6、传统模型:所有 1.8 万亿参数始终处于活动状态,DeepSeek 总共 671B,但一次只能激活 37B。这就像拥有一支庞大的团队,但只召集每个任务真正需要的专家。 7、结果令人震惊:培训成本:1 亿美元 → 500 万美元;所需 GPU:100000 → 2000;API 成本:便宜 95%;可以在游戏 GPU 而不是数据中心硬件上运行。 8、最疯狂的部分都是开源的,任何人都可以检查他们的工作,代码是公开的,技术论文解释了一切。 9、重要的是,它打破了 "只有大型科技公司才能涉足人工智能" 的模式,你不再需要价值数十亿美元的数据中心,几个好的 GPU 就可以做到这一点。 10、对于英伟达来说,这很可怕。他们的整个商业模式都建立在销售利润率高达 90% 的超级昂贵 GPU 的基础上,如果每个人都能突然用普通的游戏 GPU 做 AI…… 那么,你就知道问题所在了。 11、关键在于:DeepSeek 的团队不到 200 人,但 Meta 的团队仅薪酬就超过了 DeepSeek 的整个培训预算…… 而且他们的模型并不那么好。 12、这是一个经典的颠覆故事:既有者优化现有流程,而颠覆者重新思考根本方法。 13、影响巨大:人工智能开发变得更加容易;竞争急剧加剧;大型科技公司的 "护城河" 看起来更像水坑;硬件要求(和成本)大幅下降。 14、OpenAI 和 Anthropic 等巨头不会止步不前。他们可能已经在实施这些创新,但效率精灵已经从瓶子里出来了 —— 不可能再回到 "只是投入更多 GPU" 的方法了。 15、最后的想法:这感觉就像是我们回顾时会认为的一个转折点,就像个人电脑让大型机变得不那么重要,或者云计算改变了一切。人工智能即将变得更加普及,成本也更低。问题不在于它是否会颠覆当前的参与者,而是颠覆的速度有多快。

 


 英伟达正面临前所未有的威胁

还有分析表示,英伟达实际上很难达到市场的高期望。分析表示,英伟达面临着前所未有的竞争威胁,20 倍预期销售额和 75% 毛利率的溢价估值越来越难以证明其合理性。该公司在硬件、软件和效率方面的所谓 "护城河" 都出现了令人担忧的裂痕,地球上数以千计最聪明的人,在数十亿美元的资本资源的支持下,正试图从各个角度攻击他们。

 

在硬件方面,Cerebras 和 Groq 的创新架构表明,英伟达的互连优势(其数据中心主导地位的基石)可以通过彻底的重新设计来规避。更传统的是,每个主要的英伟达客户(谷歌、亚马逊、微软、Meta、苹果)都在开发定制芯片,这可能会蚕食高利润数据中心的收入。 软件护城河似乎同样脆弱,MLX、Triton 和 JAX 等新的高级框架正在抽象化 CUDA 的重要性,而改进 AMD 驱动程序的努力可能会解锁更便宜的硬件替代品。最重要的是,我们看到了 LLM 驱动的代码转换的出现,它可以自动将 CUDA 代码移植到任何硬件目标上运行,从而有可能消除英伟达最强大的锁定效应之一。 最令人震惊的是 DeepSeek 最近的效率突破,以大约 1/45 的计算成本实现了可比的模型性能。这表明整个行业一直在大量过度配置计算资源。再加上通过思维链模型出现的更高效的推理架构,对计算的总体需求可能比目前的预测要低得多。这里的经济效益是令人信服的:当 DeepSeek 能够达到 GPT-4 级别的性能,同时 API 调用费用降低 95% 时,这表明要么的客户在浪费资金,要么利润率必须大幅下降。 台积电将为任何资金充足的客户生产具有竞争力的芯片,这一事实自然限制了英伟达的架构优势。但从根本上讲,历史表明,市场最终会找到绕过人为瓶颈的方法,从而产生超额利润。

 

这些威胁加在一起表明,英伟达在维持其当前增长轨迹和利润率方面面临的困难要比其估值所暗示的要大得多。有五个不同的攻击方向 —— 架构创新、客户垂直整合、软件抽象、效率突破和制造民主化 —— 至少有一个成功对英伟达的利润率或增长率产生重大影响的可能性似乎很高。按目前的估值,市场还没有将这些风险中的任何一个计入价格。


 刚刚暴击华尔街,DeepSeek 再发布新开源 AI 模型

美东时间 1 月 27 日周一,AI 社区 Hugging Face 显示,DeepSeek 发布了分别名为 Janus-Pro 和 JanusFlow 的一系列开源多模态 AI 模型,参数大小从 10 亿到 70 亿不等,都已可在 Hugging Face 下载。

其中,70 亿参数的 Janus-Pro-7B 号称在图像创建的能力方面超越了 OpenAI 的 DALL-E 3 和 Stable Diffusion 模型。

DeepSeek 展示的下图可见,在文生图 Geneva l 和 DPG-Bench 基准测试中,Janus-Pro-7B 的准确率较前代 Janus 大幅提高,准确率测试结果分别为 80% 和 84.2%,高于包括 DALL-E 3 在内的其他对比模型,Janus 的准确率分别为 61% 和 79.7%。

DeepSeek 称,Janus-Pro 和 JanusFlow 的代码基于 MIT 许可证授权,这意味着它们可以不受限地用于商业用途。

1)Janus-Pro 采用视觉编码解耦方式 统一 Transformer 架构

Janus-Pro 是一款统一多模态理解与生成的创新框架,通过视觉编码解耦的方式,采用独立的路径分别处理多模态理解与生成任务,从而解决视觉编码器在两种任务中的功能冲突,大幅提升模型在不同任务中的适配性与性能,同时仍使用统一的 Transformer 架构处理多模态任务。

DeepSeek 介绍:

 

"Janus-Pro 是一种新颖的自回归框架,统一了多模态理解和生成。它通过将视觉编码分离为独立的路径来解决以前方法的局限性,同时仍然使用单一、统一的转换器架构进行处理。Janus-Pro 超越了之前的统一模型,并达到或超过了特定任务模型的性能。Janus-Pro 的 简单、 高灵活性和 有效性使其成为下一代统一多模式模型的有力候选者。"

 

Janus-Pro 基于 DeepSeek-LLM-1.5b-base 和 DeepSeek-LLM-7b-base 两个架构打造,使用 SigLIP-L 视觉编码器,高质量图像生成能力,支持 384×384 分辨率输入,满足多场景需求,并采用 LlamaGen Tokenizer 生成模块,下采样率为 16,生成更精细的图像。

Janus-Pro 架构高度灵活且设计统一,可适配视觉问答、图像标注等多模态场景。

下图可见 Janus-Pro 和 Janus 的文生图效果对比。相比 Janus,Janus-Pro 对短提示词的输出更稳定,视觉质量提高,细节更丰富,且增加了生成简短文本的功能。

2)JanusFlow 极简架构 无需复杂架构修改 生图支持 384×384 分辨率
 

DeepSeek 介绍,JanusFlow 这个框架将图像理解和生成统一在一个模型中。

对于 JanusFlow,DeepSeek 采用了 "一种极简架构,将自回归语言模型与生成建模中最先进的方法 "矫正流"(Rectified Flow)相结合。" DeepSeek 发现,矫正流可以在大语言模型(LLM)框架内直接训练,无需进行复杂的架构修改

换言之,JanusFlow 的架构极简,直接将生成流融入 LLM 框架,从而简化了多模态建模流程。

DeepSeek 称,JanusFlow 是一款统一的理解和生成多模态大语言模型(MLLM)。它将视觉编码与多模态理解和生成分离,它基于 DeepSeek-LLM-1.3b-base 构建。

对于多模态理解,JanusFlow 使用 SigLIP-L 作为视觉编码器,支持 384 x 384 图像输入。对于图像生成,JanusFlow 使用矫正流与 SDXL-VAE 结合,生成 384 x 384 分辨率图像。提供的检查点是预训练和监督微调后的 EMA 检查点。

下图可见 JanusFlow 的基准测试表现与 LLaVA 等其他模型对比,以及它的生图结果展示。

作者李丹 赵颖 何浩 杜玉 黄雯雯等

来源:华尔街见闻官方

打赏

打赏一下

微信扫一扫打赏

支付宝扫一扫打赏