Paddle Inference 简介

Paddle Inference 是飞桨的原生推理库, 提供服务器端的高性能推理能力。

由于 Paddle Inference 能力直接基于飞桨的训练算子,因此它支持飞桨训练出的所有模型的推理。

Paddle Inference 功能特性丰富,性能优异,针对不同平台不同的应用场景进行了深度的适配优化,做到高吞吐、低时延,保证了飞桨模型在服务器端即训即用,快速部署。

如果Paddle Inference可以满足您的部署需求,建议您先阅览 ** 推理流程 ** 了解标准的推理应用开发流程。

如果您不确定 Paddle Inference 是否是最佳选择,您可以阅览 ** 选择推理引擎 ** 来选择适合您的部署方式。

欢迎各位用户加入我们的交流群,与更多Paddle Inference的开发者交流讨论

../../_images/user_qq.png