Paddle-Inference
java_api

产品介绍

  • 飞桨推理产品简介
  • Paddle Inference 简介

快速开始

  • 预测流程
  • 预测示例 (C++)
  • 预测示例 (Python)
  • 预测示例 (C)
  • 预测示例 (GO)

使用方法

  • 源码编译
  • 飞腾/鲲鹏下从源码编译
  • 申威下从源码编译
  • 兆芯下从源码编译
  • 龙芯下从源码编译
  • 下载安装Linux预测库
  • 下载安装Windows预测库
  • 下载安装Mac预测库

性能调优

  • 使用Paddle-TensorRT库预测
  • X86 CPU 上部署量化模型
  • X86 CPU 上部署BF16预测

工具

  • 模型可视化
  • 模型转换工具 X2Paddle

硬件部署示例

  • X86 Linux上预测部署示例
  • X86 Windows上预测部署示例
  • 使用昆仑预测
  • Linux上GPU预测部署示例
  • NV Jetson上预测部署示例
  • Windows上GPU预测部署示例

Benchmark

  • 性能数据

API 文档

  • C++ API 文档
    • CreatePredictor 方法
    • GetVersion 方法
    • Config 类
    • PaddlePassBuilder 类
    • Predictor 类
    • PredictorPool 类
    • Tensor 类
    • 枚举类型
  • Python API 文档
  • C API 文档
  • GO API 文档

FAQ

  • Paddle Inference FAQ
  • 训练推理示例说明
Paddle-Inference
  • Docs »
  • C++ API 文档
  • Edit on GitHub

C++ API 文档¶

  • CreatePredictor 方法
  • GetVersion 方法
  • Config 类
    • 1. Config 构造函数
    • 2. 设置预测模型
      • 2.1. 从文件中加载预测模型 - 非Combined模型
      • 2.2. 从文件中加载预测模型 - Combined 模型
      • 2.3. 从内存中加载预测模型
    • 3. 使用 CPU 进行预测
      • 3.1. CPU 设置
      • 3.2. MKLDNN 设置
    • 4. 使用 GPU 进行预测
      • 4.1. GPU 设置
      • 4.2. CUDNN 设置
      • 4.3. TensorRT 设置
    • 5. 使用 XPU 进行预测
    • 6. 设置模型优化方法
      • 6.1. IR 优化
      • 6.2. Lite 子图
    • 7. 启用内存优化
    • 8. 设置缓存路径
    • 9. FC Padding
    • 10. Profile 设置
    • 11. Log 设置
    • 12. 查看config配置
  • PaddlePassBuilder 类
  • Predictor 类
    • 获取输入输出
    • 运行和生成
  • PredictorPool 类
  • Tensor 类
  • 枚举类型
    • DataType
    • PrecisionType
    • PlaceType
Next Previous

© Copyright 2020, Paddle-Inference Developer Revision dfed4014.

Built with Sphinx using a theme provided by Read the Docs.
Read the Docs v: java_api
Versions
master
latest
release-v2.2
release-v2.1
release-v2.0
release-v1.8
java_api
Downloads
On Read the Docs
Project Home
Builds

Free document hosting provided by Read the Docs.