4月30日,DeepSeek 在 Hugging Face 開(kāi)源了 DeepSeek-Prover-V2-671B 新模型。作為一站式 AIGC 云服務(wù)平臺(tái),PPIO派歐云在第一時(shí)間上線了 DeepSeek-Prover-V2-671B !讓開(kāi)發(fā)者能低成本快速使用并助力搭建創(chuàng)新場(chǎng)景。
DeepSeek-Prover-V2-671B 是一款基于 671B 參數(shù)的 MoE 大模型。 在模型架構(gòu)上,該模型使用了DeepSeek-V3架構(gòu),采用MoE(混合專(zhuān)家)模式,具有61層Transformer層,7168維隱藏層。同時(shí)支持超長(zhǎng)上下文,最大位置嵌入達(dá)163840,使其能處理復(fù)雜的數(shù)學(xué)證明,并且采用了FP8量化,可通過(guò)量化技術(shù)減小模型大小,提高推理效率。
PPIO 平臺(tái) DeepSeek-Prover-V2-671B 模型的基本信息:
?●? ?價(jià)格: ?輸入: ¥4/百萬(wàn) tokens,輸出: ¥16/百萬(wàn) tokens
?●? ?上下文窗口:160k,最大輸出 token 數(shù):160k
據(jù)了解,PPIO派歐云是致力于為企業(yè)及開(kāi)發(fā)者提供高性能的 API 服務(wù),目前已上線 DeepSeek R1/V3、Llama、GLM、Qwen 等系列模型,僅需一行代碼即可調(diào)用。并且,PPIO 通過(guò) 2024 年的實(shí)踐,已經(jīng)實(shí)現(xiàn)大模型推理的 10 倍 + 降本,實(shí)現(xiàn)推理效率與資源使用的動(dòng)態(tài)平衡。
聲明:本站轉(zhuǎn)載此文目的在于傳遞更多信息,并不代表贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé)。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)?jiān)?0日內(nèi)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除內(nèi)容,本網(wǎng)站對(duì)此聲明具有最終解釋權(quán)。