admin管理员组文章数量:1122852
1.背景描述
随着深度学习的发展,算法框架层出不穷,比如Caffe2,TensorFlow,PyTorch等,这么多框架产生了一个问题,不同框架的算法模型,并不能通用。如果已经有一个Tensorflow的模型,需要将其部署在移动设备上,以观测效果,通常需要用caffe2重新将模型写好,然后再训练参数;试想下这将是一个多么耗时耗力的过程。
自然的,我们能想到,如果算法模型能在不同的框架之间通用,那问题不就解决了。
**Open Neural Network Exchange(ONNX,开放神经网络交换)**就应运而生。
ONNX是一种针对机器学习所设计的开放式的文件格式,用于存储训练好的模型。它使得不同的人工智能框架(如Pytorch, MXNet)可以采用相同格式存储模型数据并交互。 ONNX的规范及代码主要由微软,亚马逊 ,Facebook 和 IBM 等公司共同开发,以开放源代码的方式托管在Github上。得到了主流深度学习算法框架的支持。
onnx官网
https://onnx.ai/
可以说,onnx的推出,解决了算法模型部署的大难题。
为了使用Onnx这样的中间件,我们需要一个可以用来加载使用onnx模型的运行时,也就是微软开发的onnxruntime。
官网地址:
https://www.onnxruntime.ai/
onnxruntime就是一套动态库,能支持linux、windows、macOS等多个平台,如何取得onnxruntime,有两种方式,一种是在github上下载官方发布的二进制版本。另一种是自己用源码编译。
2.二进制下载
微软在github上发布了各个版本对应的二进制文件。
比如我们需要用1.6.0版本的Windows下GPU加速版本,那么直接打开页面选择对应版本下载即可。
https://github/microsoft/onnxruntime/releases/tag/v1.6.0
本文标签: Windowsonnxruntime
版权声明:本文标题:Windows下编译Onnxruntime 内容由网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:http://www.betaflare.com/biancheng/1724544392a897071.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论