當前位置:首頁 > 報告詳情

飛槳推理引擎性能優化.pdf

上傳人: li 編號:29527 2021-02-07 40頁 2.31MB

word格式文檔無特別注明外均可編輯修改,預覽文件經過壓縮,下載原文更清晰!
三個皮匠報告文庫所有資源均是客戶上傳分享,僅供網友學習交流,未經上傳用戶書面授權,請勿作商用。

相關圖表

本文主要介紹了百度深度學習技術平臺部的Paddle Inference推理引擎,以及其在性能優化、ERNIE模型優化和應用案例方面的詳細信息。 1. Paddle Inference基本介紹:Paddle Inference是飛槳的核心推理引擎,支持動態圖和靜態圖推理,以及大規模分布式訓練和工業級數據處理。它具備硬件支持通用性、深度優化、簡易性等特點,并提供了C++、Python API等接口。 2. Paddle Inference性能優化方法:包括內存/顯存優化、OP融合、Kernel優化、TensorRT集成和混合精度推理等。例如,通過OP融合和顯存池管理,可以將Resnet50模型的顯存占用從500MB降低到200MB。 3. ERNIE模型優化:ERNIE模型經過OP融合和變長輸入支持等優化,使得模型結構更加簡潔,OP數量大幅減少,同時支持動態shape和變長輸入。在NVIDIA Tesla T4上,ERNIE模型運行時延從224ms降至41.90ms。 4. Paddle Inference應用案例:百度內部各大業務如搜索、Feed、百度APP、百度地圖、Apollo、AI醫療等都采用了Paddle Inference,展示了其在工業、農業、服務業等各行各業的廣泛應用。 綜上,本文詳細介紹了Paddle Inference推理引擎的性能優化方法、ERNIE模型優化和應用案例,展示了其在深度學習領域的領先技術。
"Paddle Inference如何實現顯存優化?" "ERNIE模型優化有哪些具體措施?" "Paddle Inference在實際應用中表現如何?"
客服
商務合作
小程序
服務號
折疊
午夜网日韩中文字幕,日韩Av中文字幕久久,亚洲中文字幕在线一区二区,最新中文字幕在线视频网站