国产一区高清|日韩精品一区人妻|曰夲AV一区二区|美日韩一区二区三区|国产喷水在线观看|狼友网站成人大全|欧美日韩制服中文视频在线|久草加勒比手机在线|婷婷色综合无码专区|japanese 精品视频在线观看

谷歌DeepMind推出“可微緩存增強(qiáng)”技術(shù),顯著提升大語言模型推理性能

谷歌DeepMind團(tuán)隊(duì)近日推出了一項(xiàng)名為“可微緩存增強(qiáng)”(Differentiable Cache Augmentation)的新技術(shù),旨在提升大語言模型(LLMs)的推理性能。該方法通過引入一個(gè)經(jīng)過訓(xùn)練的協(xié)處理器,增強(qiáng)模型的鍵值(kv)緩存,從而在不顯著增加計(jì)算負(fù)擔(dān)的情況下,顯著提升模型的推理能力。

在語言處理、數(shù)學(xué)和推理領(lǐng)域,大型語言模型是解決復(fù)雜問題的重要工具。然而,隨著模型復(fù)雜度的增加,如何在固定計(jì)算預(yù)算內(nèi)保持高性能成為一大挑戰(zhàn)。傳統(tǒng)的優(yōu)化方法往往需要在任務(wù)處理期間生成中間步驟,這會(huì)導(dǎo)致延遲增加和計(jì)算效率下降,限制了模型處理復(fù)雜推理任務(wù)的能力。

“可微緩存增強(qiáng)”技術(shù)通過三個(gè)步驟實(shí)現(xiàn)性能提升:首先,凍結(jié)的LLM從輸入序列生成kv緩存;其次,協(xié)處理器使用可訓(xùn)練的軟令牌處理kv緩存,生成潛在嵌入;最后,增強(qiáng)的kv緩存反饋到LLM,生成更豐富的輸出。在Gemma-2 2B模型上的測試結(jié)果顯示,該方法在多個(gè)基準(zhǔn)測試中取得了顯著成果,例如在GSM8K數(shù)據(jù)集上,準(zhǔn)確率提高了10.05%;在MMLU上,性能提升了4.70%。

谷歌DeepMind的這項(xiàng)研究為大語言模型的性能優(yōu)化提供了新的思路,通過引入外部協(xié)處理器增強(qiáng)kv緩存,研究人員在保持計(jì)算效率的同時(shí)顯著提高了模型性能,為LLMs處理更復(fù)雜的任務(wù)鋪平了道路。

Copyright ? DoNews 2000-2025 All Rights Reserved
蜀ICP備2024059877號(hào)-1