Predictor 方法

Paddle Inference 的预测器,由 NewPredictor 根据 Config 进行创建。用户可以根据 Predictor 提供的接口设置输入数据、执行模型预测、获取输出等。

创建 Predictor

API定义如下:

// 根据 Config 构建预测执行对象 Predictor
// 参数: config - 用于构建 Predictor 的配置信息
// 返回: *Predictor - 预测对象指针
func NewPredictor(config *Config) *Predictor

代码示例:

package main

// 引入 Paddle Golang Package
import pd "github.com/paddlepaddle/paddle/paddle/fluid/inference/goapi"
import fmt

func main() {
    // 创建 Config 对象
    config := pd.NewConfig()

    // 设置预测模型路径,这里为非 Combined 模型
    config.SetModelDir("data/mobilenet_v1")

    // 根据 Config 构建预测执行对象 Predictor
    predictor := pd.NewPredictor(config)

    fmt.Printf("%T\n", predictor)
}

输入输出与执行预测

API 定义如下:

// 获取模型输入 Tensor 的数量
// 参数:无
// 返回:uint - 模型输入 Tensor 的数量
func (p *Predictor) GetInputNum() uint

// 获取模型输出 Tensor 的数量
// 参数:无
// 返回:uint - 模型输出 Tensor 的数量
func (p *Predictor) GetOutputNum() uint

// 获取输入 Tensor 名称
// 参数:无
// 返回:[]string - 输入 Tensor 名称
func (p *Predictor) GetInputNames() []string

// 获取输出 Tensor 名称
// 参数:无
// 返回:[]string - 输出 Tensor 名称
func (p *Predictor) GetOutputNames() []string

// 获取输入 handle
// 参数:name - 输入handle名称
// 返回:*Tensor - 输入 handle
func (p *Predictor) GetInputHandle(name string) *Tensor

// 获取输出 handle
// 参数:name - 输出handle名称
// 返回:*Tensor - 输出 handle
func (p *Predictor) GetOutputHandle(name string) *Tensor

// 执行预测
// 参数:无
// 返回:None
func (p *Predictor) Run()

// 释放中间Tensor
// 参数:None
// 返回:None
func (p *Predictor) ClearIntermediateTensor()

// 释放内存池中的所有临时 Tensor
// 参数:None
// 返回:None
func (p *Predictor) TryShrinkMemory()

代码示例:

package main

// 引入 Paddle Golang Package
import pd "github.com/paddlepaddle/paddle/paddle/fluid/inference/goapi"
import fmt

func main() {
    // 创建 Config 对象
    config := pd.NewConfig()

    // 设置预测模型路径,这里为非 Combined 模型
    config.SetModel("data/mobilenet_v1", "")
    // config.SetModel("data/model/__model__", "data/model/__params__")

    // 根据 Config 构建预测执行对象 Predictor
    predictor := pd.NewPredictor(config)

    // 获取输入输出 Tensor 信息
    println("input num: ", predictor.GetInputNum())
    println("input name: ", predictor.GetInputNames()[0])
    println("output num: ", predictor.GetOutputNum())
    println("output name: ", predictor.GetOutputNames()[0])

    // 获取输入输出 Tensor 指针
    input := predictor.GetInputHandle(predictor.GetInputNames()[0])
    output := predictor.GetOutputTensors(predictor.GetOutputNames()[0])

    inputData := make([]float32, 1 * 3 * 224 * 224)
    for i := 0; i < 1 * 3 * 224 * 224; i++ {
      inputData[i] = 1.0
    }
    input.Reshape([]int32{1, 3, 224, 224})
    input.CopyFromCpu(inputData)

    // 执行预测
    predictor.Run()

    // 获取输出 Tensor
    outData := make([]float32, numElements(output.Shape()))
		output.CopyToCpu(outData)
}

func numElements(shape []int32) int32 {
	n := int32(1)
	for _, v := range shape {
		n *= v
	}
	return n
}