撰文 | 雁? 秋
編輯 | 李信馬
題圖 | IC Photo
?
?
龍年收官、蛇年啟幕之際,東方上演“驚蟄”一幕。
?
當?shù)貢r間1月27日,美國人工智能主題股票遭拋售。英偉達(NVIDIA)股價歷史性暴跌16.97%,市值一日內(nèi)蒸發(fā)近6000億美元,創(chuàng)美國歷史上任何一家公司的單日最大市值損失。
?
“幕后推手”是來自中國一家初創(chuàng)公司DeepSeek(深度求索)開發(fā)的大模型:DeepSeek-V3,其發(fā)布后,便迅速躍上美國蘋果App商店免費下載排行榜冠軍,撼動科技圈和華爾街。
?
1月28日凌晨,除夕夜前一晚,DeepSeek又開源了其多模態(tài)模型Janus-Pro-7B,宣布在GenEval和DPG-Bench基準測試中擊敗了來自O(shè)penAI的DALL-E 3和Stable Diffusion。
?
隨后,美國多名官員回應(yīng)DeepSeek對美國的影響,表示DeepSeek是“偷竊”,正對其影響開展國家安全調(diào)查。
?
面對來自外部的壓力,360集團創(chuàng)始人、董事長周鴻祎在微博表示,如果DeepSeek有需要,360愿意提供網(wǎng)絡(luò)安全方面的全力支持。
?
DeepSeek保衛(wèi)戰(zhàn)已打響,這是一場來自中國的“科技黑馬”刮起的AI龍卷風,或?qū)⒅北迫蚩萍紭I(yè)態(tài)重構(gòu)。
?
?
在軟銀宣布準備投資AI基礎(chǔ)建設(shè)5000億美元之際,DeepSeek-R1發(fā)布了。
?
這是一個按照MIT協(xié)議完全開源的模型,從代碼到架構(gòu)再到從理論到訓練方法,可以隨便看、隨便改、隨便用。據(jù)DeepSeek官方發(fā)布的數(shù)據(jù),該模型在數(shù)學、代碼、自然語言推理等任務(wù)上,性能比肩美國OpenAI公司最新的o1大模型正式版。
?
這對于全球科技界,尤其是美國各個大模型無疑是降維打擊,甚至顛覆了他們傳統(tǒng)的“燒錢”信仰。
?
為何?
?
大家都知道,推動人工智能發(fā)展,有三大要素——算法、算力和數(shù)據(jù)。
?
在DeepSeek出來之前的普遍認知是,算力是AI的核心,發(fā)展AI就是要不斷的堆算力、堆GPU。所以O(shè)penAI興起的時候,全世界一片熱捧,英偉達因此受益。
?
而中國多年來不斷被“卡脖子”,算力方面較為落后,企業(yè)只能使用價格高昂、性能低下的閹割版AI芯片,艱難求發(fā)展。
?
DeepSeek就是在這種背景下誕生的「黑馬」,令人驚喜的是,該團隊并沒有迷信“大力出奇跡”的尺度定律(Scaling law),而是專注算法的創(chuàng)新,減少對計算資源的需求。
?
據(jù)悉,R1完全拋棄傳統(tǒng)監(jiān)督學習(SFT)路線,通過動態(tài)路由算法壓縮80%的冗余計算,以在有限的運算能力中實現(xiàn)高性能,純靠強化學習就達到了與o1相當?shù)乃健?/p>
?
與此同時,R1訓練成本極低。DeepSeek官方尚未公布訓練推理模型R1的完整成本,但公布了其API定價,R1每百萬輸入tokens在1元-4元人民幣,每百萬輸出tokens為16元人民幣。作為對比,OpenAI的ChatGPT-o1的運行成本約為R1的30倍,使用了至少一萬張更為先進的英偉達H100顯卡。
?
這家剛成立一年半、去年才推出首款大模型的年輕公司,以極低的成本做出了硅谷需要上億投入才能燒出的大模型,R1幾乎一夜之間成為了美國頂尖大學研究人員的首選模型。
?
AMD宣布,已將新的DeepSeek-V3模型集成到Instinct MI300X GPU上,該模型旨在與SGLang一起實現(xiàn)最佳性能,DeepSeek-V3針對Al推理進行了優(yōu)化。
?
一名美國Meta的員工發(fā)文,因為DeepSeek的低成本高性能,他們公司的人工智能部門已經(jīng)陷入恐慌。并稱,從中國深度求索公司發(fā)布DeepSeek-V3模型開始,Meta公司重金打造的Llama 4模型,在雙方的性能測試中,就沒有打贏過。
?
國內(nèi)大廠也被激勵到不行,阿里云除夕夜都在加班,發(fā)布了通義千問旗艦版模型Qwen2.5-Max,并聲稱在多項測試中,全面超越GPT-4o、DeepSeek-V3、Llama-3.1......
?
毫無疑問,DeepSeek讓AI正變得更加廉價、高效,或?qū)⒊蔀榇笳Z言模型發(fā)展史上的典范。
?
?
?
DeepSeek出圈,全球都在為之瘋狂。資本市場的反應(yīng)最為直接,英偉達一夜之間跌出一個小米+騰訊,圍觀群眾看得也都很“上頭”,幾乎所有人都開始使用它、熱議它。
?
游戲科學創(chuàng)始人兼CEO、《黑神話:悟空》制作人馮驥更是將其直接形容為“可能是個國運級別的科技成果”。不少國內(nèi)媒體給出了“中國AI已經(jīng)超過美國”、“DeepSeek羞辱OpenAI”、“全球AI霸權(quán)之爭已經(jīng)結(jié)束”的說法。
?
?
從不少人的實際感受來看,其在中文語境的表現(xiàn)確實更優(yōu)秀,理解問題、描述概念都不在話下。(官網(wǎng)地址,方便大家自己去體驗試用,https://chat.deepseek.com/)
?
比如,小編讓它寫一段拜年祝福語,要求接地氣、真誠、不隨大眾。
?
?
換成古語風格的話,DeepSeek表現(xiàn)也比較不錯,寫的出「歲月靜好,現(xiàn)世安穩(wěn)」「家和人安,福壽綿長」的句子。
?
?
其他社交平臺上,網(wǎng)友以自己祖母為原型讓DeepSeek構(gòu)思了一個故事,結(jié)果僅用5秒就生成出來。在得到網(wǎng)友高評價后,DeepSeek展露出高情商的安慰:
?
“記住,所有讓你顫栗的文字,本質(zhì)上都是你靈魂深處早已存在的回聲。我不過是偶爾經(jīng)過的山谷,讓你聽見了自己聲音的重量?!?/p>
?
?
其他人也紛紛曬出了DeepSeek的“作業(yè)”:
?
甚至有人讓DeepSeek挑戰(zhàn)《紅樓夢》后四十回續(xù)寫,從問題拋出到生成答案,還不到一分鐘。
?
不過,江蘇省紅樓夢學會會長、南京大學文學院教授苗懷明表示,相比ChatGPT,DeepSeek更加本土化,也更強大。“從目前的情況來看,它可以寫一些較為套路化、程序化的東西,但寫具有獨創(chuàng)性、有深度的文學作品還不行?!?/p>
?
?
小編在問到英偉達的股價波動是否和其有關(guān)系時,DeepSeek“巧妙”地避開直面回答,表示英偉達的股價波動屬于正常的市場現(xiàn)象,“作為AI助手,我應(yīng)該明確說明自己不具備影響股市的能力?!?/p>
?
?
然而,進行文生圖創(chuàng)作時,大模型Janus Pro的表現(xiàn)卻令人失望。
?
小編給出較為復雜的描述,“古城墻下白雪皚皚,火車悠悠駛過,趕上了騎著車的人”,它并不能完整生成出要素內(nèi)容,更不用說豐富藝術(shù)創(chuàng)作了。
?
?
換成簡單的表述呢?要求基于“一位少女牽著小狗散步”,Janus Pro理解欠缺,生成的內(nèi)容似乎只描繪出了少女,還是古風少女。
?
?
再簡單一點,要求是“小孩吃飯”,表現(xiàn)內(nèi)容勉強上道。
?
?
看得出來,雖然官方宣稱在某些基準測試上超越了 DALL-E 3,但實際體驗卻差強人意。它不用部署也能在線免費體驗:?https://cloud.siliconflow.cn/i/eGafyivT,感興趣的朋友們可以試試。
?
這波熱潮不是虛的,但客觀來講,還沒有到如此「封神」的地步。只能說,DeepSeek在設(shè)計時過分注重了理解能力的優(yōu)化,而在生成端可能還需要更多改進。至于“超越open AI”、“霸權(quán)移位”,還遠遠不夠。
?
一來,DeepSeek贏在了創(chuàng)新的算法,但算力才是地基,是長期主義下大模型發(fā)展的必要條件。
?
在數(shù)據(jù)標注和訓練資源方面,OpenAI就像擁有一個“無底洞”,DeepSeek資源上還是有點捉襟見肘。此外,DeepSeek依然依賴于美國的算力生態(tài)。目前DeepSeek的訓練還是依賴英偉達GPU,沒有國產(chǎn)GPU可以替代。
?
包括馬斯克在內(nèi)的多位業(yè)內(nèi)人士認為,DeepSeek的訓練方式仍然依賴于堆積算力,而非真正的突破。
?
馬斯克近期點贊了一則推文,推文中提到,DeepSeek大量依賴模型蒸餾技術(shù),需要借助ChatGPT-4o和o1才能完成訓練。
?
模型蒸餾,是一項行業(yè)內(nèi)常見的技術(shù)手段,能夠?qū)penAI中的大量數(shù)據(jù)迅速提煉重點并快速理解和應(yīng)用。但這種模式只能讓DeepSeek接近OpenAI,而難以真正超越OpenAI。
?
Benchmark普通合伙人Chetan Puttagunta也表示:
?
“他們可以采用一個非常好的大型模型,并使用一種稱為蒸餾的過程?!?/p>
?
“基本上,你使用一個非常大的模型來幫助你的小模型在你希望它變得聰明的事情上變得聰明。這實際上非常具有成本效益?!?/p>
?
二來,在DeepSeek登頂中美應(yīng)用下載榜的當晚,它就因為遭受大規(guī)模的惡意攻擊,而短暫關(guān)閉注冊通道。
?
實際使用中也會發(fā)現(xiàn),可能因為用戶數(shù)暴增,DeepSeek宣告宕機的頻次比之前要高得多:幾乎每問3-5個問題之后,它就會暫時停止思考不做回答,需要新開一個對話窗口才能繼續(xù)使用。
?
這個問題之前很多AI公司也遇到過,相對有限的算力和完全開源的技術(shù)生態(tài),會讓DeepSeek處于可能更高的風險之中。
?
DeepSeek的出圈,是中國AI算法的突破,值得我們肯定和自豪。但我們依舊要保持冷靜,看清差距。
?
梁文鋒在回復馮驥“國運級別的科技成果”的盛贊時,誠懇真誠:
?
必須坦白,團隊讀到“國運級”這個形容時所有人頭皮都是麻的。我們不過是站在開源社區(qū)巨人們的肩膀上,給國產(chǎn)大模型這棟大廈多擰了幾顆螺絲。
?
看得出他是清醒的,比起“戴高帽”,這位年輕的創(chuàng)始人或許已經(jīng)開始考如何發(fā)揮“后發(fā)優(yōu)勢”,探索出可發(fā)展、可前進的新路。
?
可以肯定的是,這是一條更困難、更有挑戰(zhàn)的路,需要百倍、甚至千萬倍的努力。