商業(yè)
生態(tài)體系缺位,德施曼難敵小米和華為
德施曼難以構(gòu)建起真正的競(jìng)爭(zhēng)優(yōu)勢(shì)。
董寒雪
12小時(shí)前
字節(jié)跳動(dòng)旗下豆包大模型今日公布了2024年全領(lǐng)域的技術(shù)進(jìn)展。自5月15日首次亮相以來,豆包大模型在通用語言、視頻生成、語音對(duì)話、視覺理解等方面已跨入國(guó)際第一梯隊(duì)。
截至2024年12月,最新版豆包通用模型Doubao-pro-1215的綜合能力較5月提升了32%,全面對(duì)齊GPT-4o。在數(shù)學(xué)、專業(yè)知識(shí)等復(fù)雜場(chǎng)景任務(wù)中,其表現(xiàn)甚至優(yōu)于GPT-4o,同時(shí)推理服務(wù)價(jià)格僅為GPT-4o的八分之一。這一成就得益于海量數(shù)據(jù)優(yōu)化及模型架構(gòu)的創(chuàng)新,包括提升模型稀疏度、引入強(qiáng)化學(xué)習(xí)等,使模型的理解精度和生成質(zhì)量大幅提升。
此外,豆包大模型首次披露了其300萬字窗口的長(zhǎng)文本能力。該模型能夠一次輕松閱讀“上百篇”學(xué)術(shù)報(bào)告,每百萬tokens處理延遲僅15秒。這一能力背后包括STRING等上下文關(guān)聯(lián)數(shù)據(jù)算法,大幅提升了LLM利用海量外部知識(shí)的能力,稀疏化及分布式方案將時(shí)延降到十秒級(jí)。