DoNews7月3日消息,在辦公場景中,文檔類型圖像被廣泛使用,比如證件、發(fā)票、合同、保險單、掃描書籍、拍攝的表格等,這類圖像包含了大量的純文本信息,還包含有表格、圖片、印章、手寫、公式等復雜的版面布局和結(jié)構(gòu)信息。
早前這些信息均采用人工來處理,需要耗費大量人力,很大程度上阻礙了企業(yè)的辦公效率 。其圖像文檔識別與內(nèi)容理解業(yè)務就是為了解決此類用戶痛點。
自 2017 年以來的不斷耕耘,金山辦公在圖像文檔識別與理解領域已達到了國內(nèi)領先水平。其主要使用了 CV(Computer Vision)與 VIE(Visual Information Extraction 視覺信息抽?。?等相關深度學習技術(shù),例如通過 CV 技術(shù)識別發(fā)票和 PDF 大綱并獲取其中的數(shù)據(jù)關系,其日請求次數(shù)已達上億次。
圖像識別與理解是一個很復雜的過程,一個任務的 pipeline 用到的深度學習模型多達 20+ 個,且日請求量級較大(上億級別)需要大量的計算資源。當業(yè)務落地時,團隊主要面臨以下兩個挑戰(zhàn):任務的絕對耗時不能過長,以及成本問題。
為了解決上訴的兩個挑戰(zhàn),金山辦公采用了英偉達 T4 Tensor Core GPU 進行推理、英偉達 TensorRT 8.2.4 進行模型加速、英偉達 Triton 推理服務器 22.04 在 K8S 上進行模型部署與編排。
長鏈路(多達 20+ 個模型的 pipeline)意味著長耗時,若基于 CPU 推理的話,pipeline 耗時會長達 15 秒左右,通過 GPU 推理和 TensorRT 加速,成功將耗時降低到了 2.4 秒左右。
模型部署的時候,常見的做法是推理與業(yè)務代碼(前后處理)放在一個進程空間里,每個模型需要在每個進程中加載一次,由于顯存的限制,很多時候難以得到較高的單卡 GPU 使用率。
就算采用了進程池的方式提高了單卡的 GPU 利用率,也會因 CPU 的限制,出現(xiàn)機器整體的 GPU 利用率不高。而在引入了 Triton 推理服務器進行推理部署后,將推理與業(yè)務代碼解耦,初步實現(xiàn)將 GPU 資源池化調(diào)度。最終在同等業(yè)務規(guī)模情況下,部署成本節(jié)省了 23%。
金山辦公圖像文檔識別與理解業(yè)務,通過采用英偉達 T4 Tensor Core GPU 及 TensorRT加速,相比于 CPU 其 pipeline 耗時共下降 84%;而采用英偉達 Triton 推理服務器部署,其部署成本節(jié)省了 23% 。