DoNews11月16日消息,針對近日零一萬物被質(zhì)疑完全使用 LLaMA 架構(gòu),只對兩個張量(Tensor)名稱做修改,李開復(fù)在朋友圈進(jìn)行了回應(yīng)。
IT之家報道,李開復(fù)表示:“全球大模型架構(gòu)一路從 GPT2 --> Gopher --> Chinchilla --> Llama2 --> Yi,行業(yè)逐漸形成大模型的通用標(biāo)準(zhǔn),就像做一個手機(jī) App 開發(fā)者,不會去自創(chuàng) iOS、Android 以外的全新基礎(chǔ)架構(gòu)。01.AI 起步受益于開源,也貢獻(xiàn)開源,從社區(qū)中虛心學(xué)習(xí),我們會持續(xù)進(jìn)步?!?/p>
創(chuàng)新工場董事長兼 CEO 李開復(fù)于 2023 年創(chuàng)辦了 AI 大模型創(chuàng)業(yè)公司“零一萬物”,該公司已推出 Yi-34B 和 Yi-6B 兩個開源大模型,號稱對學(xué)術(shù)研究完全開放,同步開放免費(fèi)商用申請。
然而在 Yi-34B 的 Hugging Face 開源主頁上,開發(fā)者 ehartford 質(zhì)疑稱該模型使用了 Meta LLaMA 的架構(gòu),只對兩個張量(Tensor)名稱進(jìn)行了修改,分別為 input_layernorm 和 post_attention_layernorm。
零一萬物開源團(tuán)隊(duì)總監(jiān) Richard Lin 回應(yīng)稱,這一命名問題是開發(fā)人員疏忽導(dǎo)致,開發(fā)人員在代碼中進(jìn)行了幾次重命名,以滿足實(shí)驗(yàn)要求。但是開發(fā)人員“忘記將張量名稱修改回 LLaMA”,開發(fā)人員對此感到抱歉。
值得一提的是,原阿里首席 AI 科學(xué)家賈揚(yáng)清吐槽國內(nèi)某一新模型中用的其實(shí)是 LLaMA 架構(gòu),僅在代碼中更改了幾個變量名引發(fā)網(wǎng)絡(luò)熱議。在被指大模型回應(yīng)并發(fā)布訓(xùn)練模型過程后,賈揚(yáng)清最新發(fā)文,表示開源領(lǐng)域“魔改”要不得。
15日,零一萬物官方對 Yi-34B 訓(xùn)練過程進(jìn)行了說明,表示大模型持續(xù)發(fā)展與尋求突破口的核心點(diǎn)不僅在于架構(gòu),而是在于訓(xùn)練得到的參數(shù)。