矽谷急了,華爾街慌了。
大家都在猜測,美股的AI泡沫遲早要爆破,英偉達(NVDA.US)高高在上的市值肯定要跌一跌,沒想到,刺破估值泡沫的會是來自東方的神秘力量。
名不見經傳的DeepSeek(深度求索)短短幾天,登頂蘋果中國地區和美國地區應用商店免費App下載排行榜,快速超越ChatGPT。
DeepSeek為何能成為矽谷Killer?
DeepSeek是一家在人工智能領域具有創新性和影響力的中國公司,由中國對衝基金幻方量化於2023年5月在杭州成立,創始人為幻方量化的創始人梁文峰。
幾天之前,這家AI公司發佈了大語言模型DeepSeek-R1,讓全球技術圈沸騰,其推理能力與OpenAI目前最好的模型o1相當,能夠一步一步反思自己的分析(即所稱的「思維鏈」方式),在幾秒鍾或幾分鍾内回答難題,並解決復雜的問題。
不僅如此,DeepSeek-R1在各種第三方基準測試(衡量AI在回答各種主題問題時的表現測試)中的得分與OpenAI的o1一樣高甚至更高,但其訓練成本只有OpenAI的3%-5%(據報道約為500萬美元),而且使用的GPU芯片要少得多。
不同於「ClosedAI」的o1向用戶收費(Plus版的收費為每月20美元,而Pro版的月費更高達200美元),DeepSeek-R1為完全開源模型,正因如此,人們能按照不同的任務目的對模型的諸多變體進行微調和訓練,例如將其收縮,在移動設備上運行,或者與其他開源模型結合起來使用等等。據西方媒體報道,就算用於開發,DeepSeek的API成本也要比OpenAI的o1模型低超過90%。
更過分的是,其使用門檻極低——DeepSeek有免費的網站和移動App,還能「聯網搜索」,在這方面OpenAI也只是做到半桶水而已。
不少美國用戶抨擊o1:太貴、太慢,需要依賴OpenAI服務器,而R1則全面解決這些痛點,其他企業用戶能夠自行購買英偉達的GPU來運行模型,而無需擔心增加成本或過度依賴OpenAI服務器,而造成速度緩慢。
有意思的是,這不是第一款讓西方震懾的AI產品,幾天之前,字節跳動發佈另一AI模型豆包1.5-Pro,在第三方基準測試中與OpenAI的非推理GPT-4o性能相當,但成本僅為其五十分之一。
這一切都讓特朗普的5000億美元「星際之門」以及大型科技巨頭的巨額資本開支預算看起來像個笑話。
在《解構「星際之門」的財富密碼》一文,我們已經提到,特朗普提出由軟銀出資、OpenAI出力,與甲骨文(ORCL.US)和中東科技投資公司MGX組建合營項目「星際之門」,在四年來投入5000億美元在美國建造新的AI基礎設施,可以預期,購買最尖端AI芯片的成本在這筆資本支出中將佔大比重。
除此以外,微軟(MSFT.US)、亞馬遜(AMZN.US)、Meta(META.US)、谷歌(GOOG.US)等也已經表明會在2025年大幅增加資本開支進行AI基礎設施的投入,其中AI芯片的支出會佔較大比重。
沒想到的是,中國的AI模型僅用有限的芯片和低得多的成本就完美超越,最主要的原因是DeepSeek採用的是非OpenAI傳統的訓練方式——不拼算力,而是拼算法。
當前的大模型通常採用監督微調(SFT)技術進行訓練,而DeepSeek-R1幾乎單純使用強化學習技術進行「後訓練」,很少使用SFT,從而減少了對大規模人工標注數據集的依賴,降低數據收集和標注的成本;R1模型通過學習思維鏈(CoT)的方式逐步推理而得出結果,而不是直接預測答案,極大地提升了推理能力,使模型在解決復雜問題時能更有效地利用計算資源,避免了不必要的計算開銷。
在資源利用方面,R1通過Multi-Head Latent Attention(MLA)和DeepSeek MOE架構節省了大量的現存,確保每個token下少量專家網絡參數被激活時,不同專家網絡能以更均衡的頻率被激活,更有效地使用硬件資源;設計出「對偶流水線」機制,將GPU用於數學運算和通信相關的算力進行並行隱藏,減少了GPU指令執行流水線中的「氣泡」,提升了GPU的使用效率,讓GPU幾乎不間斷地進行運算;限制了每個token發送到GPU集群節點的數量,並應用了FP8混合精度訓練架構,降低了通信開銷的同時加快了計算速度。
研發方面,DeepSeek團隊或只有140名員工,而OpenAI有上千名員工。DeepSeek堅持開源策略,模型的代碼和訓練方法完全開源,吸引了不少開發者參與到模型的優化和改革中來,有效分攤了成本。
正因如此,華爾街這一年來的估值邏輯被颠覆。
估值邏輯有變
有鑒於AI發展浪潮的迅猛,英偉達成為華爾街的寵兒,更兩度超越蘋果(AAPL.US)成為全球市值最高的上市公司,主要因為AI的發展和演變,離不開最尖端AI芯片的支持,而英偉達的A100、GB200等等芯片,成為各大型科技企業的AI芯片首選。由於要訓練其大模型需要不少的算力,所使用的芯片數量不菲,也令英偉達的芯片「一芯難求」,更大大推高了成本。
英偉達的估值也因此水漲船高。
不僅英偉達,半導體產業鏈也得益於這波紅利而跑赢了大部分科技股,例如有能力量產英偉達最先進AI芯片的台積電(TSM.US)、全球最主要的光刻機供應商阿斯麥(ASML.US),甚至為AI算力提供能源支持的能源公司Vistra(VST.US)和Constellation Energy(CEG.US)等,在2024年都實現不俗的股價漲幅。
但是DeepSeek的這一下深度求索,扭轉了依靠AI芯片才能打造出最尖端大模型的邏輯,英偉達的香饽饽變得沒那麽香了。
英偉達在R1發佈後首個交易日的股價下探16.97%,蒸發掉接近6000億美元,差不多相當於七個英特爾(INTC.US)的市值。台積電的股價也下挫13.33%,阿斯麥亦下跌5.75%。能源公司Vistra和Constellation Energy更分别下挫28.27%和20.85%。
值得留意的是,Meta的開源模型Llama首當其衝,同為開源模型,Llama的性能明顯跑輸,成本還不低,而紮克伯格已明確2025年將加大對AI的資本支出,這或引發投資者對其估值的思考,不過Meta的股價卻上升1.91%。
二級市場的回落遲早將蔓延到一級市場,剛剛獲得估值大幅提升的OpenAI和Anthropic,下一輪融資不知道能獲得多少估值。
結語
對於DeepSeek-R1的成功也有不少不以為然的聲音,甚至引發了多次攻擊,我們留意到,DeepSeek網頁版今日(1月28日)多次短暫出錯。今早起,我們就留意到DeepSeek暫時限制了+86手機號(中國内地手機號碼)以外的注冊方式,已注冊用戶可以正常登陸。
不過,對抗敵意的最聰明辦法是「以強制敵」,1月28日淩晨,DeepSeek又發佈了開源多模態AI模型Janus-Pro,為之前於2024年11月發佈JanusFlow大模型的升級版,能同時處理文本和圖像,架構解耦多模態理解和視覺生成任務,在圖像生成基準測試中超越OpenAI的「文生圖」模型DALL-E 3。對比上一代模型,Janus-Pro優化了訓練策略並擴展了訓練數據。
幸好,中國的農歷新年馬上就到了,中國人都忙著過新年,應該沒空再發佈新模型,老黃和華爾街應該可以暫時緩一口氣。