基於NVIDIA Triton和TensorRT的人工智能推理
太平洋時間2月23日上午10時召開的網絡研討會:
一個靈活的解決方案,為每一個ai推理部署
盡快註冊!
構建一個用於生產AI推理的平臺是困難的。
參加這個線上會議, 學習如何使用NVIDIA Triton™inference Server和NVIDIA®TensorRT™部署快速和可擴展的AI推理。我們將一起探索運行在人工智能模型上的推理解決方案,以提供更快、更準確的預測,並解決常見的痛點。部署挑戰,如不同類型的AI模型架構,執行環境,框架,計算平臺,以及更多將被涵蓋。
通過參加本次網絡研討會,您將了解到:
如何使用Triton Inference Server和TensorRT在生產中優化、部署和縮放人工智能模型
Triton如何在cpu和gpu上實現跨多個框架、跨不同查詢類型(實時、批處理、流)的推理服務,並使用模型分析器進行高效部署
如何標準化工作流程,以優化模型使用TensorRT和框架集成PyTorch和TensorFlow
關於客戶的實際用例和他們看到的好處。