DoNews9月12日消息,9月9日,AMD Mini AI工作站創(chuàng)新分享沙龍在京召開,本次活動旨在深入探討AI算力前沿趨勢,分享AMD在Mini AI工作站領(lǐng)域的創(chuàng)新技術(shù)與應(yīng)用案例。
在沙龍上,AMD大中華區(qū)市場營銷副總裁紀(jì)朝暉首先分享了AMD在銳龍 AI Max+ 395處理器這一方面的新進展。
銳龍 AI MAX+ 395處理器首發(fā)于2025年CES,紀(jì)朝暉介紹,這款處理器擁有16個高性能核心,最高頻率達5.1GHz,相當(dāng)于把桌面級處理器的性能裝進了筆記本里;GPU方面則是集成了Radeon 8060S GPU,擁有40個RDNA 3.5計算單元,最高支持96GB顯存;此外,這款處理器還配備了50 TOPS算力的XDNA 2 NPU神經(jīng)處理單元,專門優(yōu)化AI推理任務(wù)。
據(jù)介紹,AMD銳龍 AI MAX處理器采用了一種名為高帶寬統(tǒng)一內(nèi)存的全新架構(gòu)(Unified Memory Architecture,UMA)。這種架構(gòu)打破了GPU顯存瓶頸,可有效降低數(shù)據(jù)延遲。
銳龍 AI MAX+ 395支持最高128GB的統(tǒng)一內(nèi)存,通過AMD的可變顯存技術(shù),能最高把其中的96GB分配給GPU專屬使用。
紀(jì)朝暉表示,Radeon 8060S GPU加96GB顯存的組合對于跑混合專家模型(Mixture of Experts, MoE)來說有著得天獨厚的優(yōu)勢,根據(jù)AMD方面的測試,搭載了AMD銳龍AI MAX+ 395處理器的Mini AI工作站在iGPU滿載運行情況下跑Meta Llama4-109B Scout多模態(tài)模型生成速度為14+ Tok/s;跑OpenAI GPT-oss-120B模型生成速度為40+ Tok/s;跑阿里Qwen3-235B模型生成速度為14+ Tok/s
為何96GB顯存如此重要,根據(jù)OpenAI官網(wǎng)上公布的文檔,如果是GPT-oss-120B開源大模型的話,顯存占用達到了80GB,也就是說如果顯存小于這個大小的話,這些開源大模型是沒法在本地來運行的。
今年6月,OpenAI聯(lián)合創(chuàng)始人、深度學(xué)習(xí)專家安德烈·卡帕西(Andrej Karpathy)在一次主題演講上表示,軟件開發(fā)已進入“Software 3.0”階段。
卡帕西提出,傳統(tǒng)的手寫代碼時代,即Software 1.0,以及訓(xùn)練神經(jīng)網(wǎng)絡(luò)權(quán)重的Software 2.0時代,正被“提示詞即程序”的Software 3.0所取代。自然語言正成為直接控制計算機的新編程接口。
此外,卡帕西也提出,2025年是AI Agent的元十年,意思是AI Agent需要十年時間才能真正成熟。
在這個背景下,基于AMD銳龍 AI Max+ 395的Mini AI工作站可以說是生逢其時。在今年7月于深圳舉行的AMD Mini AI工作站行業(yè)解決方案峰會上,已經(jīng)出現(xiàn)了超過20款的AMD銳龍AI Max+ 395 Mini AI工作站的產(chǎn)品,這些產(chǎn)品以更低的價格提供高達96GB的顯存,更低的總體擁有成本(Total Cost of Ownership,TCO),更小的體積提供給企業(yè)、中小企業(yè)、AI開發(fā)者一個可用的AI的端側(cè)、邊緣側(cè)理想的推理平臺。
紀(jì)朝暉表示,AMD不斷推動讓銳龍 AI Max+ 395 Mini AI工作站賦能AI開發(fā)者、AI教育、超級個體、數(shù)據(jù)分析、家庭和私人空間等不同場景和行業(yè),依托AMD中國AI應(yīng)用創(chuàng)新聯(lián)盟上百個優(yōu)秀獨立軟件開發(fā)商(Independent Software Vendor,ISV)伙伴的支持基礎(chǔ)上,在硬件和軟件上共同推動、賦能AI企業(yè)應(yīng)用的“最后一公里”。
最后,紀(jì)朝暉也特別提到AMD中國的一個特別合作伙伴波瀾AI(RlPPLE AI),他們在針對AMD銳龍AI Max+395 Mini AI工作站打造了開發(fā)者套件,讓本地開發(fā)者能夠迅速的上手。
當(dāng)下波瀾AI的官網(wǎng)已經(jīng)上線,遠程測試平臺功能已開放,該網(wǎng)站將逐步完善,會包括有工具文檔的整理、教程模板,和開發(fā)者互助協(xié)作社區(qū)等內(nèi)容。
紀(jì)朝暉稱,通過與波瀾AI的合作,AMD方面希望把銳龍AI Max+395平臺打造成為AI時代的樹莓派,讓AI Agent能夠快速在中國落地,并成熟和發(fā)展起來。
AMD大中華區(qū)AI市場經(jīng)理昝仲陽則分享了今年以來AI的三個發(fā)展趨勢:第一個是自從DeepSeek出現(xiàn)帶火了MoE架構(gòu)之后,各家大模型企業(yè)都推出了自己的MoE架構(gòu)模型,MoE架構(gòu)本身參數(shù)量很大,因此運行需要很大的顯存,但其激活的參數(shù)相對較小,因此只要有足夠的GPU算力,其推理速度是可觀的,這種情況就特別適合AMD銳龍AI MAX+ 395處理器,有足夠大的顯存,同時GPU能力又足夠強,可以運行別人加載不了的MoE模型,跑得還非???。
第二個發(fā)展趨勢是,以往像YOLO這樣的監(jiān)督學(xué)習(xí)模型,需要企業(yè)為每個特定任務(wù)投入大量人力進行數(shù)據(jù)標(biāo)注,成本較高。而像通義千問這些端側(cè)的視覺語言模型(Vision Language Model, VLM)由于已在海量圖文數(shù)據(jù)上完成了預(yù)訓(xùn)練,具備了強大的通用視覺理解能力,對于企業(yè)而言,省去了為開發(fā)特定模型而進行數(shù)據(jù)標(biāo)注的巨額成本,實現(xiàn)了‘開箱即用’的效果 。
第三個發(fā)展趨勢是今年出現(xiàn)了特別熱的模型上下文協(xié)議(Model Context Protocol,MCP)和Agent,由于更長上下文的需求,對顯存的要求也更高了。而AMD銳龍AI Max+ 395 Mini AI工作站作為一臺售價在兩萬元以內(nèi)的消費級機器,其最大96GB顯存是完全夠用的。
昝仲陽表示,Software 3.0時代真正改變了所有人的生活方式,用Vibe Coding的形式,再加上優(yōu)秀的Mini AI工作站,以及個人的專業(yè)知識,就能做到以前做不到的事情。但他認(rèn)為AI并不會替代程序員或者人類的工作,只會加強人類的專業(yè)知識,讓生產(chǎn)效率加倍,讓人類變得更強。
昝仲陽最后總結(jié),在AI的趨勢來了之后,大家普遍有兩種焦慮,第一種是顯存的焦慮,現(xiàn)在AMD銳龍AI Max+ 395處理器已經(jīng)幫大家解決了這種焦慮;第二種就是Token焦慮,所有的上傳下載,提示詞Prompt,MCP都要算Token,要算錢的,而現(xiàn)在通過Mini AI工作站這種產(chǎn)品形態(tài),就能以較小的占地空間,本地部署的方式來解決Token焦慮的問題,對于企業(yè)、個人和小團隊來說都是非常有吸引力的。
沙龍活動的現(xiàn)場展出了來自Abee、惠普、極摩客、銘凡、天鋇、首屆玲瓏、零刻、希未等廠商搭載銳龍AI Max+ 395 Mini AI工作站的產(chǎn)品。
這些產(chǎn)品形態(tài)各異,很多已經(jīng)在京東等電商平臺開售,現(xiàn)在主流的在京東大概1.3萬到1.5萬左右的價格。
憑借著高達96GB的顯存設(shè)計,Radeon 8060S的集成GPU,以及x86 Windows的成熟生態(tài),AMD銳龍AI MAX+395已經(jīng)在炙手可熱的AI大模型領(lǐng)域先奪一城。
而搭載AMD銳龍AI Max+ 395的Mini AI工作站,依托AMD中國AI應(yīng)用創(chuàng)新聯(lián)盟ISV伙伴的支持基礎(chǔ),在軟硬件上共同推動和賦能AI企業(yè)應(yīng)用的“最后一公里”。