硅谷AI圈今年夏天的諸神之戰(zhàn)昨夜正式拉開序幕——OpenAI在GPT-2之后終于再次擁抱開源,發(fā)布了一個(gè)“號(hào)稱”最強(qiáng)的開源推理大模型gpt-oss.
谷歌同樣沒閑著,直接丟出了一個(gè)“開天辟地”式的大殺器——Genie 3。它可以讓用戶一句話生成一個(gè)長達(dá)數(shù)分鐘的可以交互的三維虛擬世界,效果炸裂。
而OpenAI的老冤家,不認(rèn)AGI只管在AI編程賽道上蒙眼狂奔的Anthropic也不甘寂寞。它更新了自己最頂(gui)級(jí)的大模型:Claude Opus 4.1,將AI編程能力的上限再次提升。
雖然在不同維度上,昨晚的3個(gè)新產(chǎn)品發(fā)布都具有相當(dāng)重要的意義,但是這還只是未來幾天硅谷AI圈“神仙打架”的序幕,好戲還在后面呢。
而且就像御三家之前發(fā)布的所有產(chǎn)品一樣,背后團(tuán)隊(duì)中,國人依然是中流砥柱。所以,就連硅谷的吃瓜群眾,也在期待來自東方的DeepSeek和Qwen。希望國內(nèi)的AI力量,不會(huì)缺席這場夏末的AI盛宴。
01
OpenAI終于迎來了他的DeepSeek時(shí)刻
OpenAI時(shí)隔6年首次推出“開放權(quán)重”大語言模型:gpt-oss-120b和gpt-oss-20b。兩個(gè)模型都采用了Transformer架構(gòu),并融入MoE設(shè)計(jì)。gpt-oss-120b總參數(shù)1170億,激活參數(shù)51億。gpt-oss-20b總參數(shù)210億,每token激活36億參數(shù)。
模型采用了分組多查詢注意力機(jī)制,組大小為8,以及旋轉(zhuǎn)位置編碼(RoPE),原生支持128k上下文。
性能上來看,OpenAI官方的說法是現(xiàn)在同體量下開源推理模型的SOTA:
gpt-oss-120b模型在核心推理基準(zhǔn)測(cè)試中實(shí)現(xiàn)了與 OpenAI o4-mini 接近的性能,可以在單張80 GB GPU 上高效運(yùn)行。gpt-oss-20b 在常見基準(zhǔn)測(cè)試中能達(dá)到與 OpenAI o3-mini 類似的性能,可以在僅具有 16 GB 內(nèi)存的端側(cè)運(yùn)行
從模型體量上來看,OpenAI這次放出的兩個(gè)模型都是針對(duì)的本地部署的需求和市場,補(bǔ)齊之前的產(chǎn)品層面的短板。而且在許可證里,依然很雞賊的進(jìn)行了限制,不允許年收入高于1億美元或者日活超過100萬的實(shí)體商用。
發(fā)布之后,網(wǎng)友們也迫不及待地進(jìn)行了本地化的部署,性能反饋還不錯(cuò)。
在RTX5090上運(yùn)行20B的版本,每秒能達(dá)到160-180tokens的輸出速度。
模型能力上看,用戶的實(shí)際反饋也都還不錯(cuò)。這位網(wǎng)友在M4 MacBook上一次通過了3個(gè)常用的編程能力測(cè)試。
根據(jù)大模型能力測(cè)試機(jī)構(gòu)Intelligence Evaluation公布的眾測(cè)結(jié)果,OpenAI這兩款模型的性能確實(shí)在遠(yuǎn)遠(yuǎn)小于DeepSeek R1和Qwen 3的體量下,獲得了接近于兩個(gè)中國開源模型的性能。
客觀地說,這次模型的發(fā)布最大的意義在于讓OpenAI再次回到了開源牌桌之上,讓用戶也多了一個(gè)方便單機(jī)本地部署,能力還不錯(cuò)的模型可以選擇,但也只能算是一次補(bǔ)作業(yè)式的發(fā)布。而所有人對(duì)OpenAI的期待,依然還是落在之后到來的GPT-5上,到底OpenAI能給業(yè)界還能帶來多大的震撼,讓我們拭目以待。
02
谷歌Genie 3:炸裂,但是期貨
雖然OpenAI沒有放出GPT-5,但是谷歌也不會(huì)允許OpenAI獨(dú)食流量,發(fā)布了一個(gè)非?!皯?zhàn)未來”的模型——Genie-3。
像開頭的視頻一樣,這是一個(gè)文生虛擬世界的模型,允許用戶用文字生成一個(gè)720p清晰度24 FPS流暢度的動(dòng)態(tài)世界實(shí)時(shí)交互的世界模型,具有非常好的一致性和真實(shí)感。用戶可以自己用文字或按鈕的方式來控制探索這個(gè)世界中的各個(gè)細(xì)節(jié)
通俗一點(diǎn)來說,如果說像Sora或者Veo 3這樣的文生視頻模型對(duì)應(yīng)的是電影的話,Genie-3生成的就是一個(gè)游戲或者說一個(gè)虛擬劇本殺。用戶不僅是在屏幕前看這個(gè)世界,更可以主動(dòng)的通過自己的行為,和這個(gè)生成的世界進(jìn)行互動(dòng)。
而不同于視頻模型的是,這樣的“世界模型”需要對(duì)用戶的行進(jìn)實(shí)時(shí)的反饋和互動(dòng),而且還必須符合現(xiàn)實(shí)世界的基本邏輯規(guī)律。比如你用手向后推一個(gè)漂浮的氣球,氣球不能向天上飛,而要向后飛。你用手輕推一輛汽車,它不能馬上就高速跑起來。
所以如果用戶對(duì)于視頻模型中一些小的瑕疵還能接受的話,世界模型就一定需要對(duì)物理反饋處理的非常精準(zhǔn),雖然不一定能到LeCun要求的“理解物理世界”的水平,但是相比于視頻模型生成的一閃而過的畫面,生成的虛擬世界如果處理不好這些物理交互邏輯,那就是沒有意義的產(chǎn)品。
而我們看到谷歌提供的Demo中,隨著用戶輸入不同的指令,世界會(huì)實(shí)時(shí)給出不同的反饋,生成不同的內(nèi)容。想要做到這一點(diǎn),需要的處理的技術(shù)問題是非常有挑戰(zhàn)性的。
而如果在未來,谷歌真的能把這條路徹底跑通,且不說“世界模型”背后的技術(shù)對(duì)機(jī)器人和自動(dòng)駕駛領(lǐng)域會(huì)不會(huì)產(chǎn)生什么顛覆性的改變,就算對(duì)VR,游戲以及文生視頻行賽道生的影響,也將是難以想象的。
可惜的是,雖然Genie 3看起來足夠驚艷,但依然停留在官方演示階段,所有的發(fā)布內(nèi)容都為官方放出,沒有提供普通用戶試用,還是經(jīng)典的谷歌版期貨。
但雖說是期貨,可現(xiàn)如今,這樣具有跨時(shí)代意義的產(chǎn)品和技術(shù)突破,似乎只有對(duì)AI進(jìn)行飽和式火力覆蓋的谷歌,才能做到。
從技術(shù)層面來講,即便是像OpenAI這樣的創(chuàng)業(yè)公司,也只能能在Transformer這一類模型上和谷歌形成你追我趕之勢(shì)。雖然一年多以前,是OpenAI推出的Sora炸裂全場,拉爆了人們對(duì)于視頻生成模型的期待。但是真正有實(shí)力能持續(xù)投入,在時(shí)間維度上持續(xù)保持領(lǐng)先的產(chǎn)品,依然是谷歌和它的Veo。而Genie 3,也是谷歌多年默默耕耘,迭代了數(shù)個(gè)大版本的成果。
考慮到即便是Transformer,也是發(fā)源于谷歌,希望它能善待每一株火苗,早日讓我們感受到燎原的熱浪。
03
偏科冠軍的執(zhí)著:2%提升
一張圖就能很好地概括Anthropic昨晚的發(fā)布,AI編程能力上限又提高了2%。
但需要強(qiáng)調(diào)的是,這里的2%,不僅僅是Claude自己的提升,而是代表了現(xiàn)在AI編程能力的上限。
因?yàn)閺挠脩粽鎸?shí)反饋和市場占有率上來看,Claude Opus幾乎就是現(xiàn)在AI Coding的口碑和占有率最高的模型。
而AI編碼,幾乎就是現(xiàn)階段大模型商業(yè)化最徹底,未來上限最高的一個(gè)分支賽道。所以面對(duì)OpenAI的血脈壓制,Anthropic選擇的是將所有資源和精力都花在提升自己模型的編程能力上。通過這個(gè)競爭策略,讓自己能夠持續(xù)留在大模型商業(yè)化的牌桌上,保留同谷歌和OpenAI持續(xù)對(duì)抗的可能。
所以從這個(gè)角度說,Opus 4.1的發(fā)布,似乎是在另外兩家發(fā)布補(bǔ)課和“戰(zhàn)未來”的產(chǎn)品時(shí),向自己的所有客戶堅(jiān)定地說,放心,你們選我錯(cuò)不了。
04
AI圣誕夜背后的國人力量
昨夜硅谷AI圈的三彈連發(fā),背后依然少不了華人科學(xué)家和工程師的身影。
OpenAI發(fā)布的gpt-oss系列模型的核心團(tuán)隊(duì)成員之一,就有參與多個(gè)項(xiàng)目的北大校友任泓宇。
在OpenAI期間,他主要負(fù)責(zé)后訓(xùn)練團(tuán)隊(duì),主要研究方向?yàn)檎Z言模型訓(xùn)練優(yōu)化。
而他現(xiàn)在,也已經(jīng)被小扎重金挖到了Meta,成為了Meta超(一)級(jí)(億)智(薪)能(酬)實(shí)驗(yàn)室的成員。
在去OpenAI之前,他曾經(jīng)在蘋果,微軟,谷歌,英偉達(dá)都工作或者實(shí)習(xí)過。2018年從北大本科畢業(yè)后,他在斯坦福大學(xué)獲得了計(jì)算機(jī)博士學(xué)位。
而在社交網(wǎng)絡(luò)上,他也專門感謝了另一位華人科學(xué)家Wang Xin在項(xiàng)目后訓(xùn)練階段的貢獻(xiàn)。
她本科畢業(yè)于上海交大,后來在加州大學(xué)伯克利分校獲得了計(jì)算機(jī)博士學(xué)位。
之后在微軟,蘋果工作過,于今年2月份加入了OpenAI,主要負(fù)責(zé)模型的后訓(xùn)練工作。
而在谷歌發(fā)布Genie 3團(tuán)隊(duì)名單中,也有1名華人參與。
Emma Wang本科畢業(yè)于上海交通大學(xué),在哈佛大學(xué)獲得博士學(xué)位。2019年博士畢業(yè)后加入谷歌,主要負(fù)責(zé)模型的優(yōu)化。2023年,她加入了DeepMind團(tuán)隊(duì),之后參與了Genie 3服務(wù)系統(tǒng)的設(shè)計(jì)和優(yōu)化了,降低了10倍的延遲,大大提升了模型的吞吐量,從讓模型而實(shí)現(xiàn)了24fps的流暢度和亞秒級(jí)響應(yīng)延遲。
特別聲明:本文為合作媒體授權(quán)DoNews專欄轉(zhuǎn)載,文章版權(quán)歸原作者及原出處所有。文章系作者個(gè)人觀點(diǎn),不代表DoNews專欄的立場,轉(zhuǎn)載請(qǐng)聯(lián)系原作者及原出處獲取授權(quán)。(有任何疑問都請(qǐng)聯(lián)系idonews@donews.com)