英偉達(dá)跌到,DeepSeek吃飽
2025年2月27日,英偉達(dá)發(fā)布了2025財(cái)年第四季度財(cái)報(bào)。
公司報(bào)告稱,Q4收入達(dá)到了393億美元,其中凈利潤220.91億美元,同比增長80%。調(diào)整后的每股收益為0.89美元,均超過了分析師預(yù)期的380.5億美元和0.84美元。此外,英偉達(dá)預(yù)計(jì)第一季度收入將達(dá)到430億美元,遠(yuǎn)高于分析師預(yù)測的417.8億美元
全年收入創(chuàng)紀(jì)錄達(dá)到1305億美元,同比增長114%。
然而,英偉達(dá)股價(jià)當(dāng)天卻暴跌!
股價(jià)下跌8.48%,創(chuàng)下一個(gè)月來最大單日跌幅,市值蒸發(fā)約2716億美元(約合1.98萬億元人民幣)。
發(fā)生什么事了?
一周前,DeepSeek發(fā)布公告,稱將迎來“開源周”。
意思是未來一周每天發(fā)布一部分開源技術(shù),模仿起了OpenAI的騷操作。
不過,和OpenAI擠牙膏不同的是,DeepSeek放出的每一個(gè)開源工具都是刺向英偉達(dá)的刺刀,刀刀見血。
讓我們看看這個(gè)周,DeepSeek都開源了些啥。
我盡量用大家都能看得懂的大白話描述。
首日:FlashMLA橫空出世,GPU算力調(diào)度迎來智能時(shí)代
FlashMLA的發(fā)布猶如一顆重磅炸彈,直擊AI算力浪費(fèi)的痛點(diǎn)。傳統(tǒng)GPU在處理自然語言等任務(wù)時(shí),面對長短不一的數(shù)據(jù)序列往往"大材小用",造成算力浪費(fèi)。FlashMLA則如同一位智能交通調(diào)度員,能夠根據(jù)序列長度動態(tài)調(diào)配計(jì)算資源,實(shí)現(xiàn)"精準(zhǔn)打擊"。這一創(chuàng)新不僅大幅提升GPU利用率,更被業(yè)界視為國產(chǎn)GPU性能突圍的關(guān)鍵一步。發(fā)布僅6小時(shí),GitHub收藏量便突破5000次,其影響力可見一斑。
次日:DeepEP打通MoE模型任督二脈,通信效率飆升
MoE(混合專家模型)作為AI大模型的重要架構(gòu),其訓(xùn)練和推理效率高度依賴專家模型間的通信效率。DeepEP作為首個(gè)開源EP通信庫,為MoE模型量身打造了一條"數(shù)據(jù)高速公路"。它支持優(yōu)化的全對全通信模式,并原生支持FP8低精度運(yùn)算調(diào)度,在降低計(jì)算資源消耗的同時(shí),實(shí)現(xiàn)數(shù)據(jù)的高速傳輸。DeepEP的出現(xiàn),讓MoE模型的訓(xùn)練和推理效率邁上新臺階。
第三日:DeepGEMM劍指矩陣計(jì)算,F(xiàn)P8性能突破天際
矩陣乘法是AI計(jì)算的基石,其性能優(yōu)化直接影響大模型的訓(xùn)練成本和效率。DeepGEMM憑借DeepSeek-V3的細(xì)粒度scaling技術(shù),僅用300行代碼便實(shí)現(xiàn)了高效的FP8通用矩陣乘法。在Hopper GPU上,其計(jì)算性能最高可達(dá)1350+ FP8 TFLOPS,媲美甚至超越專家調(diào)優(yōu)的庫。更令人驚嘆的是,DeepGEMM無需編譯,通過輕量級JIT模塊即可實(shí)現(xiàn)運(yùn)行時(shí)編譯,極大降低了使用門檻。
第四日:DualPipe+EPLB雙劍合璧,并行計(jì)算效率飆升30%
并行計(jì)算是提升AI算力的重要手段,但傳統(tǒng)管道并行存在"氣泡"問題,造成資源浪費(fèi)。DualPipe通過雙向管道并行算法,實(shí)現(xiàn)計(jì)算與通信階段的雙向重疊,將硬件資源利用率提升超30%。EPLB則針對MoE架構(gòu),通過冗余專家策略和啟發(fā)式分配算法,優(yōu)化GPU間的負(fù)載分布,減少GPU閑置現(xiàn)象。兩者相輔相成,為AI大模型訓(xùn)練注入強(qiáng)勁動力。
第五日:3FS文件系統(tǒng)橫空出世,數(shù)據(jù)訪問速度再創(chuàng)新高
AI模型的訓(xùn)練和推理離不開海量數(shù)據(jù)的快速訪問。3FS文件系統(tǒng)專為現(xiàn)代SSD和RDMA網(wǎng)絡(luò)帶寬設(shè)計(jì),能夠?qū)崿F(xiàn)高速數(shù)據(jù)訪問,顯著提升AI模型訓(xùn)練和推理的效率。它的出現(xiàn),為AI算力瓶頸的突破再添一把利器。
不難發(fā)現(xiàn),這五天發(fā)布的開源項(xiàng)目,幾乎每一個(gè)都最大限度的壓榨N卡的性能。
這也是為什么DeepSeek能用幾千張卡訓(xùn)練出的大模型,能和OpenAI幾萬張卡Grok幾十萬張卡的效果打的有來有回。
要命的是,這些技術(shù)統(tǒng)統(tǒng)開源,人人可用。
如此一來,大模型企業(yè)不需要這么多卡了。
英偉達(dá)的高估邏輯發(fā)生了變化。
DeepSeek的母公司是幻方量化,作為一家量化公司,你猜會不會提前做了操作?
原文標(biāo)題 : 英偉達(dá)跌到,DeepSeek吃飽

發(fā)表評論
請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個(gè)字
最新活動更多
-
7月8日立即報(bào)名>> 【在線會議】英飛凌新一代智能照明方案賦能綠色建筑與工業(yè)互聯(lián)
-
7月22-29日立即報(bào)名>> 【線下論壇】第三屆安富利汽車生態(tài)圈峰會
-
7.30-8.1火熱報(bào)名中>> 全數(shù)會2025(第六屆)機(jī)器人及智能工廠展
-
7月31日免費(fèi)預(yù)約>> OFweek 2025具身智能機(jī)器人產(chǎn)業(yè)技術(shù)創(chuàng)新應(yīng)用論壇
-
免費(fèi)參會立即報(bào)名>> 7月30日- 8月1日 2025全數(shù)會工業(yè)芯片與傳感儀表展
-
即日-2025.8.1立即下載>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍(lán)皮書》
推薦專題