文|白 ? ?鴿
編|王一粟
一則新聞?dòng)珠_炸AI圈。
最新消息顯示,美國BIS執(zhí)法部門宣布加強(qiáng)對海外AI芯片的出口管制措施,其中有對中國國產(chǎn)算力芯片不利的條款。
關(guān)稅剛剛達(dá)成初步協(xié)議,轉(zhuǎn)頭就加強(qiáng)科技管控。根據(jù)路透社報(bào)道,美國參議員上周五提出一項(xiàng)新法案,要求對出口受限的人工智能芯片實(shí)施位置驗(yàn)證機(jī)制,旨在阻止中國獲得先進(jìn)半導(dǎo)體技術(shù)。
這項(xiàng)名為《芯片安全法案》的提案將給與美國商務(wù)部授權(quán),要求出口受控的AI芯片及其集成產(chǎn)品配備位置追蹤系統(tǒng),以監(jiān)測這些產(chǎn)品是否被轉(zhuǎn)移、走私或用于未經(jīng)授權(quán)的用途。
不過,后續(xù)BIS又更改了口徑,對中國AI芯片的限制又從某一款單獨(dú)的AI芯片擴(kuò)大到其他所有先進(jìn)計(jì)算芯片。
至此,幻想需要被徹底放棄了:在AI這個(gè)未來科技的勝負(fù)手上,將會(huì)是一場沒有終點(diǎn)的長跑比賽。
而想坐在談判桌上,必須擁有籌碼:自主創(chuàng)新的科技實(shí)力。
大模型推理,超節(jié)點(diǎn)需要解決“三高一低”
超節(jié)點(diǎn)是AI浪潮中,算力架構(gòu)的一次重大創(chuàng)新。這個(gè)概念雖然源自英偉達(dá),但中國廠商卻做了更多顛覆式的創(chuàng)新。
創(chuàng)新源于改變。
邁入2025年,AI大模型推理的需求更加旺盛,對算力提出了更多要求。如果僅僅是通過算力的堆疊,并不能夠滿足推理需求。
當(dāng)前行業(yè)面臨著“三高一低”挑戰(zhàn)——即如何實(shí)現(xiàn)更高的算力利用率、更高的算力可用度、更高的吞吐率以及更低的處理時(shí)延。
事實(shí)上,DeepSeek低價(jià)質(zhì)優(yōu)的背后,就是通過使用MoE架構(gòu),保證模型容量的前提下降低計(jì)算成本。
MoE架構(gòu)是一種通過動(dòng)態(tài)組合多個(gè)子模型(專家)來提升模型性能的大規(guī)模機(jī)器學(xué)習(xí)框架,其核心特點(diǎn)是稀疏激活機(jī)制,即在用戶輸入問題時(shí),僅激活與輸入數(shù)據(jù)最相關(guān)的專家進(jìn)行思考回答,生成最終結(jié)果。
如DeepSeek-R1的參數(shù)量是671B,但因?yàn)椴捎孟∈杓軜?gòu),實(shí)際上每次只激活其中32B的參數(shù),加上DeepSeek的思維鏈優(yōu)化等技術(shù),就可以實(shí)現(xiàn)近似于ChatGPT-4o和o1的推理能力。
而傳統(tǒng)的Dense架構(gòu)則是全科天才需要處理所有問題,雖然能力強(qiáng)大,但是當(dāng)問題變多時(shí)就會(huì)顯得效率十分低下,而且其消耗的資源也遠(yuǎn)超“普通專家”。
但是,MoE模型通過門控網(wǎng)絡(luò)動(dòng)態(tài)選擇激活的專家,這就導(dǎo)致不同GPU節(jié)點(diǎn)間需要頻繁交換數(shù)據(jù)(如專家參數(shù)、中間計(jì)算結(jié)果),而傳統(tǒng)的點(diǎn)對點(diǎn)通信模式(如單機(jī)8卡互聯(lián))在MoE訓(xùn)練中容易因通信帶寬不足或延遲過高導(dǎo)致GPU資源閑置。
而想要解決這一問題,超節(jié)點(diǎn)技術(shù)似乎成為了當(dāng)前的最優(yōu)解。
一般來說,構(gòu)建一個(gè)超大規(guī)模的GPU集群,往往有兩種方式,一種是通過增加單節(jié)點(diǎn)的資源數(shù)量,向上擴(kuò)展,即Scale Up,在每臺(tái)服務(wù)器中多塞幾塊GPU,一個(gè)服務(wù)器成為一個(gè)節(jié)點(diǎn);另一種Scale Out是通過網(wǎng)絡(luò)將多臺(tái)服務(wù)器(節(jié)點(diǎn))連接起來。
而當(dāng)這些設(shè)備處于同一個(gè)HBD(High Bandwidth Domain,超帶寬域)的時(shí)候,英偉達(dá)對這種以超大帶寬互聯(lián)16卡以上GPU-GPU的Scale Up系統(tǒng),稱為超節(jié)點(diǎn)。
那為什么說,超節(jié)點(diǎn)是解決MoE架構(gòu)通信問題的最優(yōu)解?
背后原因在于,超節(jié)點(diǎn)作為Scale Up的當(dāng)前最優(yōu)解,通過內(nèi)部高速總線互連,能夠有效支撐并行計(jì)算任務(wù),加速GPU之間的參數(shù)交換和數(shù)據(jù)同步,縮短大模型的訓(xùn)練周期。
近期,華為云正式發(fā)布了CloudMatrix 384超節(jié)點(diǎn),其在性能倍增的同時(shí),也進(jìn)行了技術(shù)創(chuàng)新,包括對MoE親和、以網(wǎng)強(qiáng)算、以存強(qiáng)算、長穩(wěn)可靠、朝推夜訓(xùn)、即開即用等6大方面。
其中,華為云CloudMatrix 384超節(jié)點(diǎn)通過超高帶寬Scale-Up網(wǎng)絡(luò)實(shí)現(xiàn)從“傳統(tǒng)以太網(wǎng)”向“共享總線網(wǎng)絡(luò)”演進(jìn),用對等架構(gòu)替代傳統(tǒng)以CPU為中心的主從架構(gòu),將資源互聯(lián)帶寬提升了10倍以上,實(shí)現(xiàn)CPU、NPU、內(nèi)存等多樣資源全對等連接。
這背后核心技術(shù)就是華為云創(chuàng)新的以網(wǎng)強(qiáng)算MatrixLink服務(wù),其是將單層網(wǎng)絡(luò)升級為兩層高速網(wǎng)絡(luò):一層是超節(jié)點(diǎn)內(nèi)部的ScaleUp總線網(wǎng)絡(luò),確保超節(jié)點(diǎn)內(nèi)384卡全對等高速無阻塞互聯(lián),卡間超大帶寬2.8TB,納秒級時(shí)延,另一層則是跨超節(jié)點(diǎn)間的ScaleOut網(wǎng)絡(luò),可支持微秒級時(shí)延,資源彈性擴(kuò)展,最大支持128k組網(wǎng)規(guī)模。
“基于全局拓?fù)涓兄闹悄苷{(diào)度算法,對于流量沖突,可規(guī)劃最佳流量路徑,確保無阻塞交換。同時(shí),可支持光模塊故障的快速識(shí)別、隔離與流量快速調(diào)度,保障客戶任務(wù)長穩(wěn)運(yùn)行?!比A為云副總裁黃瑾說道。
具體來說,傳統(tǒng)單機(jī)最多帶8個(gè)專家,類似一個(gè)小辦公室只能坐8人,而MoE需要成百上千專家,超節(jié)點(diǎn)則可以把多個(gè)機(jī)柜計(jì)算卡連成“超級辦公室”,專家數(shù)量隨需求擴(kuò)展,可支持千億參數(shù)大模型。
而針對MoE模型里專家可能“冷熱不均”:有的專家被頻繁調(diào)用,有的閑置情況。華為昇騰AI云服務(wù)利用超節(jié)點(diǎn)和動(dòng)態(tài)資源分配機(jī)制相結(jié)合,使算力利用率平均提高了50%,能夠充分滿足AI業(yè)務(wù)的高并發(fā)與彈性需求特性。
事實(shí)上,除底層硬件層面網(wǎng)絡(luò)帶寬的創(chuàng)新外,華為昇騰AI云服務(wù)此次升級的分布式推理平臺(tái),也能夠基于對MoE架構(gòu)天然的親和推理能力,提高集群的吞吐性能。
經(jīng)過實(shí)測,硅基流動(dòng)在基于華為昇騰AI云服務(wù)打造的超節(jié)點(diǎn)算力服務(wù)集群上,其計(jì)算吞吐量已經(jīng)超越業(yè)界最好GPU的集群吞吐性能,單卡可以達(dá)到1920Token/秒。
另外,在DeepSeek推理模型里面,由于其對專家模型的動(dòng)態(tài)選擇能力,也需要進(jìn)行Prefill(大模型推理的首個(gè)階段)和Decode(大模型推理輸入-輸出結(jié)果的過程)負(fù)載配比,通過動(dòng)態(tài)的均衡和自動(dòng)負(fù)載均衡,來實(shí)現(xiàn)整個(gè)系統(tǒng)最佳推理的吞吐。
通過超節(jié)點(diǎn),華為昇騰AI云服務(wù)不僅優(yōu)化了訓(xùn)練與推理效率,還降低了硬件成本,也成為支撐MoE模型從實(shí)驗(yàn)室走向工業(yè)落地的關(guān)鍵。
大模型落地,算力調(diào)度既要靈活、又要高效
相比于大模型預(yù)訓(xùn)練的集中式調(diào)度,“大量的AI推理應(yīng)用,往往是短時(shí)間、短期間的潮汐式應(yīng)用?!敝袊娦糯竽P褪紫瘜<摇⒋竽P蛨F(tuán)隊(duì)負(fù)責(zé)人劉敬謙此前曾說道。
如某電商平臺(tái)在大促期間,大模型客服推理算力需求瞬時(shí)可提升500%,這就需要在分鐘級內(nèi)完成跨集群資源調(diào)度。
因此,推理的算力部署要靠近用戶,保證算力延時(shí)要在5-10毫秒范圍內(nèi)的同時(shí),還要能夠支持算力資源的高效靈活調(diào)度,才能夠滿足潮汐式應(yīng)用需求。
這里有兩個(gè)關(guān)鍵詞,一個(gè)是算力充足,一個(gè)是靈活高效。
要想算力充足,不光是砸錢買英偉達(dá)的卡這么簡單,就算OpenAI這樣的新貴也不能放肆揮霍。這就需要從幾個(gè)維度去想辦法:
提升單體架構(gòu)的算力
把多元化的算力都用起來,CPU、NPU、GPU、內(nèi)存一起上
超節(jié)點(diǎn)就完美地同時(shí)解決了這倆問題。
就像上面提到,超節(jié)點(diǎn)是從架構(gòu)上的設(shè)計(jì),提升了單體架構(gòu)的算力。比如,華為云的CloudMatrix 384超節(jié)點(diǎn)基于高帶寬互聯(lián)技術(shù),在一臺(tái)服務(wù)器中集成了384張算力卡。同時(shí),通過分布式擎天架構(gòu)實(shí)現(xiàn)CPU、NPU、GPU、內(nèi)存等多樣資源統(tǒng)一抽象、池化,突破單體算力瓶頸,使算力規(guī)模提升50倍,達(dá)300PFlops。
事實(shí)上,在傳統(tǒng)的方案中,因?yàn)轱@存和算力綁定,往往客戶為了獲取更多的內(nèi)存,就必須大規(guī)模購買NPU,造成NPU算力資源的極大浪費(fèi)。
基于此,華為云推出了業(yè)界首創(chuàng)的EMS彈性內(nèi)存存儲(chǔ),通過內(nèi)存池化技術(shù),一方面可以支持以存強(qiáng)算,即用EMS替代NPU中的顯存,緩存并復(fù)用歷史KV計(jì)算結(jié)果,可以使首Token時(shí)延降低,有場景可降低到80%。
另一方面,當(dāng)NPU的顯存不足時(shí),往往企業(yè)會(huì)通過購買更多NPU的方式進(jìn)行擴(kuò)容,但通過EMS的分布式內(nèi)存存儲(chǔ),基于將內(nèi)存虛擬化的技術(shù),就可以補(bǔ)充顯存空間,減少企業(yè)購買NPU的數(shù)量。
此外,“EMS還支持算力卸載,即將原來需要在NPU中進(jìn)行的KV計(jì)算卸載到CPU和EMS中,從而使得系統(tǒng)吞吐量提升100%?!秉S瑾如此說道。
當(dāng)前,做超節(jié)點(diǎn)方案的廠商并不少,但華為云CloudMatrix 384超節(jié)點(diǎn)有一些自有的特點(diǎn),比如在節(jié)點(diǎn)間重要的通信上,華為就用了光通信,而非業(yè)界主流的銅纜電互聯(lián)。
通信起家的華為,比英偉達(dá)在通信上更有話語權(quán)。它能做到更高的卡間互聯(lián)帶寬、更高的擴(kuò)展性、更低的延遲和功耗,為大模型訓(xùn)練、科學(xué)計(jì)算等高性能計(jì)算場景提供了強(qiáng)大支撐。
經(jīng)實(shí)測,華為云數(shù)據(jù)顯示,基于華為云的CloudMatrix 384超節(jié)點(diǎn)的軟硬件協(xié)調(diào),在一個(gè)超節(jié)點(diǎn)上通過高效網(wǎng)絡(luò)互聯(lián)技術(shù),MFU(Model Flops Utilization,模型浮點(diǎn)運(yùn)算利用率)可實(shí)現(xiàn)高達(dá)55%的利用率,同時(shí)還能夠保證超節(jié)點(diǎn)萬卡集群上,萬億模型訓(xùn)練超40天不中斷。
底層的算力資源池已經(jīng)有了,而想要高效靈活地調(diào)度這些資源池,則離不開云服務(wù)體系。
一方面,華為昇騰AI云服務(wù)通過瑤光智慧云腦,可提供NPU、GPU、CPU、內(nèi)存等資源按需組合,通過匹配最優(yōu)算力組合,實(shí)現(xiàn)百億到萬億級模型訓(xùn)練所需的資源。此外,還可實(shí)現(xiàn)多個(gè)大模型在一個(gè)超節(jié)點(diǎn)資源池內(nèi)調(diào)度,讓超節(jié)點(diǎn)整體資源利用率更高。
值得一提的是,此次昇騰AI云服務(wù)在資源調(diào)度上,還實(shí)現(xiàn)了容器級的Serverless技術(shù),及卡級別的Serverless技術(shù),能夠?qū)崿F(xiàn)卡級別和容器級別的資源調(diào)度,使資源利用率提升50%以上。
所謂Serverless通常指無服務(wù)器架構(gòu),用戶不需要管理服務(wù)器,平臺(tái)自動(dòng)處理基礎(chǔ)設(shè)施。而容器級的Serverless是指基于容器技術(shù)的Serverless 解決方案,如 AWS Fargate、阿里云函數(shù)計(jì)算支持容器等。
一般在大模型的部署應(yīng)用中,可以將大模型封裝為容器鏡像,并通過 Serverless 容器實(shí)現(xiàn)彈性推理,這樣就可以在低負(fù)載時(shí)僅保留1個(gè)實(shí)例維持熱啟動(dòng),節(jié)省資源,在峰值時(shí)秒級擴(kuò)容多個(gè)實(shí)例,分?jǐn)偼评韷毫Α?/p>
如某客服大模型使用Serverless容器后,推理成本降低30%,并發(fā)處理能力提升5倍;某電商促銷活動(dòng)中,容器級Serverless平臺(tái)在10秒內(nèi)擴(kuò)容2000個(gè)容器實(shí)例,處理峰值達(dá)10萬QPS的商品推薦請求。
在行業(yè)人士看來,容器級Serverless技術(shù)通過 “去基礎(chǔ)設(shè)施化” 重構(gòu)了應(yīng)用部署模式,讓容器技術(shù)從 “需要專業(yè)團(tuán)隊(duì)運(yùn)維的重資產(chǎn)” 變?yōu)?“即開即用的算力資源”。
同時(shí),未來在云服務(wù)體系中,容器級Serverless也將向 “全域算力調(diào)度” 演進(jìn),實(shí)現(xiàn)中心云、邊緣節(jié)點(diǎn)、端設(shè)備的容器實(shí)例統(tǒng)一管理,推動(dòng) “算力即服務(wù)(CaaS)” 的終極形態(tài),即用戶無需關(guān)心算力在哪里、如何運(yùn)行,只需按需獲取容器化的計(jì)算能力。
可以看到,容器Serverless技術(shù)進(jìn)一步降低了企業(yè)用算力的門檻,尤其對中小企業(yè)而言,用上大模型將更加容易。
有了充足的底層算力資源,還能夠靈活高效的進(jìn)行調(diào)配,但對于很多企業(yè)來說,還是希望能夠更充分的進(jìn)行算力的利用,避免算力出現(xiàn)閑置問題。
為了解決企業(yè)的顧慮,華為云還創(chuàng)新地推出了朝推夜訓(xùn)模式,即通過訓(xùn)推共池和靈活調(diào)度,白天進(jìn)行模型推理,晚上閑時(shí)進(jìn)行模型訓(xùn)練,大幅提升超節(jié)點(diǎn)算力資源利用率。
其核心原理在于將訓(xùn)練推理作業(yè)共用一個(gè)專屬資源池,支撐提前劃分訓(xùn)練、推理邏輯子池,通過邏輯子池動(dòng)態(tài)配合調(diào)整,實(shí)現(xiàn)訓(xùn)推資源時(shí)分復(fù)用,節(jié)點(diǎn)在訓(xùn)練和推理任務(wù)間切換<5分鐘。
從底層算力資源的擴(kuò)張,到以云服務(wù)的形式對算力資源進(jìn)行靈活調(diào)配,再到充分保證企業(yè)對算力資源的利用率,可以看到,華為云正在構(gòu)建全方位體系化的AI算力供給能力。
而面向未來,除了對算力資源的調(diào)配和利用之外,如何保證算力資源更加穩(wěn)定的供給,也將成為關(guān)鍵。
日新月異的大模型,更需要一朵穩(wěn)定的云
“我們一年花費(fèi)在云端算力上的費(fèi)用,大概十幾億元?!盡omenta創(chuàng)始人曹旭東曾透露。
智能駕駛的數(shù)據(jù)量非常龐大,且對數(shù)據(jù)的實(shí)時(shí)性要求非常高,畢竟這涉及到駕駛安全問題。而隨著端到端大模型的上車,對算力資源的需求更加龐大。
但端側(cè)的算力供給,遠(yuǎn)遠(yuǎn)不能夠達(dá)到智能駕駛的需求,基于云-邊-端的混合架構(gòu),則成為了智能駕駛算力應(yīng)用最常見的方式。而這背后,對算力服務(wù)支持的穩(wěn)定性和可靠性也就要求更加嚴(yán)格。
這就需要算力服務(wù)商,具備對大模型故障的強(qiáng)感知能力。
華為云最近把這種感知能力提升到了一個(gè)新標(biāo)準(zhǔn)——針對超大規(guī)模集群的故障感知提出了1-3-10標(biāo)準(zhǔn)。即不管是千卡集群,還是萬卡集群,亦或是10萬卡集群,華為昇騰AI云服務(wù)能夠?qū)崿F(xiàn)1分鐘感知故障、3分鐘故障定界、10分鐘故障恢復(fù)。
能做到如此快速的故障恢復(fù),源于背后昇騰云腦的最新升級,其可實(shí)現(xiàn)全棧故障感知、診斷與快速自動(dòng)恢復(fù)。
其中,在故障感知方面,通過靜默故障感知技術(shù)和算法,主動(dòng)探測硬件進(jìn)行功能或性能測試,根據(jù)測試結(jié)果及時(shí)發(fā)現(xiàn)并隔離性能衰減的“慢節(jié)點(diǎn)”,基于變化趨勢,預(yù)測硬件的潛在故障風(fēng)險(xiǎn),提前進(jìn)行隔離或更換。硬件故障感知率從40%提升至90%。
同時(shí),昇騰云腦的全棧故障知識(shí)庫已經(jīng)覆蓋95%常見場景,可一鍵故障診斷準(zhǔn)確率可達(dá)到80%,大大縮短網(wǎng)絡(luò)故障診斷時(shí)效。配合 “三層快恢技術(shù)” ,實(shí)現(xiàn)萬卡集群故障10分鐘恢復(fù)的效果。
通過昇騰云腦,華為云則能夠快速感知故障并進(jìn)行修復(fù),能夠保證大模型長期穩(wěn)定地運(yùn)行。
事實(shí)上,除了汽車行業(yè)外,許多其他行業(yè)的人也都能感受到:“大模型的發(fā)展太快了?!?/strong>
今年春節(jié)期間,DeepSeek第一次爆火,距今過去100多天,而在此期間,各種更新迭代的大模型產(chǎn)品、Agent智能體產(chǎn)品,更是日新月異。
然而,相比于日新月異的大模型,作為底層基礎(chǔ)設(shè)施,數(shù)據(jù)中心交付周期卻相對比較漫長,從立項(xiàng)到建設(shè)完成,往往至少需要一年半載的時(shí)間,而此時(shí)大模型早已經(jīng)更新迭代好幾批了,芯片也早就不是最新的。
也正因此,在中國智算中心建設(shè)周期中,有很多小型智算集群和數(shù)據(jù)中心,建完就出現(xiàn)閑置,原因就在于其已經(jīng)不能夠滿足當(dāng)下最新大模型的算力需求了。
那么,在日新月異的大模型更新迭代背景之下,國內(nèi)大模型企業(yè)想要能夠使用最新的算力基礎(chǔ)設(shè)施,云的方式則成為了最優(yōu)解,且對于行業(yè)用戶而言,用云的性價(jià)比遠(yuǎn)遠(yuǎn)大于自建數(shù)據(jù)中心。
一方面,數(shù)據(jù)中心建設(shè)成本高,自建費(fèi)時(shí)費(fèi)力,且芯片更新?lián)Q代快,自建IDC將會(huì)大大增加企業(yè)的建設(shè)成本;另外,數(shù)據(jù)中心的運(yùn)維難度高,整體架構(gòu)更復(fù)雜,涉及到更多運(yùn)維工具。
另外,更為重要的一點(diǎn)是,數(shù)據(jù)中心非常容易出現(xiàn)問題,導(dǎo)致各種故障,如果沒有積累深厚的系統(tǒng)化運(yùn)維能力,很難實(shí)現(xiàn)數(shù)據(jù)中心的長穩(wěn)智能運(yùn)維。
畢竟,運(yùn)維一個(gè)數(shù)據(jù)中心的時(shí)間長達(dá)10-15年,在漫長的運(yùn)維過程中如何保障數(shù)據(jù)中心的可靠運(yùn)行是每個(gè)基礎(chǔ)設(shè)施管理者首要的責(zé)任。
反觀中國的云廠商,無論在軟硬件技術(shù)上,幾乎都是全球頂流的水平了。
比如華為云,僅在中國就已經(jīng)完成了全國三大云核心樞紐布局,即貴州貴安、內(nèi)蒙古烏蘭察布、安徽蕪湖,具備3大樞紐DC,百TB帶寬互聯(lián),萬公里光纖骨干網(wǎng),覆蓋19大城市圈。
目前,這三大數(shù)據(jù)中心均已上線了超節(jié)點(diǎn),“在全國主要的流量城市中,基本上在10毫秒內(nèi)就可以訪問到這個(gè)超節(jié)點(diǎn)?!秉S瑾說道,現(xiàn)在企業(yè)想要申請使用,分鐘級就可以開通。
當(dāng)然,在龐大的數(shù)據(jù)中心運(yùn)維中,華為云也形成了體系化的能力,幫助超節(jié)點(diǎn)長穩(wěn)智能地運(yùn)維,能更好地幫助客戶的業(yè)務(wù)穩(wěn)定高效地運(yùn)行。
綜合來看,中國AI產(chǎn)業(yè)的基礎(chǔ)設(shè)施已經(jīng)絕對擁有了軟硬件自主創(chuàng)新的能力,這種內(nèi)循環(huán)的能力,會(huì)讓我們變得更加強(qiáng)大。
無端的科技戰(zhàn),并不能夠阻擋中國AI產(chǎn)業(yè)的崛起,反而是成為了一種催化劑,讓主動(dòng)擁抱國產(chǎn)算力的企業(yè)和機(jī)構(gòu)變得更多。
一朵更加穩(wěn)定的云,才能夠?yàn)锳I大模型走向落地,提供更加穩(wěn)定的國產(chǎn)AI算力支持,幫助中國AI走得更高更遠(yuǎn)。
未來,面向智能世界,華為云將致力于做好行業(yè)數(shù)字化的“云底座”和“使能器”,加速千行萬業(yè)智能化。
特別聲明:本文為合作媒體授權(quán)DoNews專欄轉(zhuǎn)載,文章版權(quán)歸原作者及原出處所有。文章系作者個(gè)人觀點(diǎn),不代表DoNews專欄的立場,轉(zhuǎn)載請聯(lián)系原作者及原出處獲取授權(quán)。(有任何疑問都請聯(lián)系idonews@donews.com)