在C++中调用ONNX模型的一种常见方法是使用ONNX Runtime库。下面是一个简单的示例代码,演示如何在C++中加载和运行ONNX模型:
#include <onnxruntime_cxx_api.h>
#include <iostream>
int main() {
// 加载ONNX模型
Ort::Env env(ORT_LOGGING_LEVEL_WARNING, "test");
Ort::SessionOptions session_options;
Ort::Session session(env, "model.onnx", session_options);
// 创建输入
std::vector<float> input_data = {1.0, 2.0, 3.0, 4.0};
Ort::Value input_tensor = Ort::Value::CreateTensor<float>(env, input_data.data(), input_data.size(), {1, 4});
// 运行模型
const char* input_names[] = {"input"};
const char* output_names[] = {"output"};
Ort::RunOptions run_options;
Ort::Value output_tensor = session.Run(run_options, input_names, &input_tensor, 1, output_names, 1);
// 获取输出
float* output_data = output_tensor.GetTensorMutableData<float>();
for (size_t i = 0; i < output_tensor.GetTensorTypeAndShapeInfo().GetElementCount(); i++) {
std::cout << output_data[i] << " ";
}
return 0;
}
在这个示例中,我们首先加载了一个名为"model.onnx"的ONNX模型。然后创建了一个包含四个元素的输入张量,并将其传递给模型。最后,我们运行模型并获取输出结果。请注意,此示例假设模型具有单个输入和单个输出,实际使用时可能需要根据模型的具体输入输出来修改代码。