您好,登录后才能下订单哦!
小编给大家分享一下Tensorflow模型转换.pb convert to .lite的示例分析,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!
Tensorflow 推出Lite版本,可实现移动端的快速运行,其中,一个很关键的问题,如何把现有分类模型(.pb) 转换为(.lite)模型呢?
其实,步骤如下
1- 进入 Tensorflow 源码文件夹(以便bazel可以无需配置找打相应路径)
2- 转换可执行文件
bazel run --config=opt \ //tensorflow/contrib/lite/toco:toco -- \ --input_file=/tmp/mobilenet_v1_1.0_224_frozen.pb \ # 待转换模型路径 --output_file=/tmp/tflite_model2.tflite \ # 目标模型路径 --input_format=TENSORFLOW_GRAPHDEF \ --output_format=TFLITE \ --input_shape=1,224,224,3 \ # 输入图像宽高 --input_array=input \ # 输入节点名称<参考1> --output_array=MobilenetV1/Predictions/Reshape_1 \ # 输出节点名称<参考1> --inference_type=FLOAT \ # 图像数据类型 --input_data_type=FLOAT
参考1: 如果输入输出节点不知道:进入python,import tf ,并通过如下命令( tf.GraphDef() )查找:
>>> import tensorflow as tf >>> gf = tf.GraphDef() >>> gf.ParseFromString(open('/your/path/to/graphname.pb','rb').read()) >>> for n in gf.node: >>> print ( n.name +' ===> '+n.op )
参转换后,在android手机上运行,在不考虑精度的前提下,不同实现方式得到的结果如下:
模型 | type | model size | speed |
---|---|---|---|
mobilenet-v1-224 | .pb | 17 mb | 106 ms |
mobilenet-v1-224 | .lite | 16.4 mb | 72 ms |
以上是“Tensorflow模型转换.pb convert to .lite的示例分析”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注亿速云行业资讯频道!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。