wx.createInferenceSession
InferenceSession wx.createInferenceSession(Object object)
基础库 2.30.0 开始支持,低版本需做兼容处理。
小程序插件:支持,需要小程序基础库版本不低于 2.30.0
功能描述
创建 AI 推理 Session。使用前可参考AI指南文档
参数
Object object
属性 | 类型 | 默认值 | 必填 | 说明 | |
---|---|---|---|---|---|
model | string | 是 | 模型文件路径,目前只执行后缀为.onnx格式(支持代码包路径,和本地文件系统路径) | ||
precesionLevel | number | 4 | 否 | 推理精度,有效值为 0 - 4。一般来说,使用的precesionLevel等级越低,推理速度越快,但可能会损失精度。推荐开发者在开发时,在效果满足需求时优先使用更低精度以提高推理速度,节约能耗。 | |
合法值说明0使用fp16 存储浮点,fp16计算,Winograd 算法也采取fp16 计算,开启近似math计算1使用fp16 存储浮点,fp16计算,禁用 Winograd 算法,开启近似math计算2使用fp16 存储浮点,fp32计算,开启 Winograd,开启近似math计算3使用fp32 存储浮点,fp32计算,开启 Winograd,开启近似math计算4使用fp32 存储浮点,fp32计算,开启 Winograd,关闭近似math计算 | |||||
allowQuantize | boolean | false | 否 | 是否生成量化模型推理 | |
allowNPU | boolean | false | 否 | 是否使用NPU推理,仅对IOS有效 | |
typicalShape | Object | 否 | 输入典型分辨率 |
返回值
InferenceSession
示例代码
// 创建会话,加载模型
const session = wx.createInferenceSession({
model: `${wx.env.USER_DATA_PATH}/MNIST.onnx`,
precisionLevel: 4,
typicalShape:{input1:[1, 3, 224, 224], input2:[1, 1, 224, 224]}, //除非使用动态轴,一般不用显式指定
allowNPU: false,
allowQuantize: false
})
// 监听error事件
session.onError(err => {
console.error(err)
})
// 监听模型加载完成事件
session.onLoad(() => {
// 运行推理
// 其中input1, input2, output0 必须与使用的onnx模型中实际的输入输出名字完全一致,不可随意填写。
// 模型输入输出信息可以通过Netron 打开onnx模型看到
session.run({
input1: {
type: 'float32',
data: new Float32Array(3 * 224 * 224).buffer,
shape: [1, 3, 224, 224] // NCHW 顺序
},
// 多个input的添加方法,假设第二个input需要数据类型为uint8
input2: {
type: 'uint8',
data: new Uint8Array(224 * 224).buffer,
shape: [1, 1, 224, 224]
},
}).then(res => {
console.log(res.output0)
})
})
// 销毁Session
// session完成创建后可以多次调用run进行推理,直到调用`session.destroy()`释放相关内存。
// 销毁会话
session.destroy()
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· AI技术革命,工作效率10个最佳AI工具