yolov5训练的模型移植rt-thread并测试
yolov5训练的模型移植rt-thread并测试
- 将训练好的yolov5模型转换成tflite模型。
-
进入yolov5项目文件夹下,运行export.py文件。
python export.py --weights best.pt --include tflite #--weight:权重文件地址 #--include:转换成哪种模型类型
export.py支持的转换类型 Format | `export.py --include` | Model --- | --- | --- PyTorch | - | yolov5s.pt TorchScript | `torchscript` | yolov5s.torchscript ONNX | `onnx` | yolov5s.onnx OpenVINO | `openvino` | yolov5s_openvino_model/ TensorRT | `engine` | yolov5s.engineD CoreML | `coreml` | yolov5s.mlmodel TensorFlow SavedModel | `saved_model` | yolov5s_saved_model/ TensorFlow GraphDef | `pb` | yolov5s.pb TensorFlow Lite | `tflite` | yolov5s.tflite TensorFlow Edge TPU | `edgetpu` | yolov5s_edgetpu.tflite TensorFlow.js | `tfjs` | yolov5s_web_model/
-
运行完后会生成best.tflite.
- 烧录rt-thread的源码。
-
打开rt-thread stdio 我们将进行基础配置更改。打开文件->新建rtthread项目.选择自己的工程目录和开发板(这里使用k210作为例子)。bsp版本务必选择1.0.4版本。
依次点击这两个按键。 点开mpy按如图所示配置。 再点击软件包-> 语言包->mrico python打开hardware的lcd其他配置如图所示 ctrl+s保存。打开rt-ak项目中的aitools文件并运行。
--project=C:UsersAdministratorDesktop tthreadipr --model=C:UsersAdministratorDesktop tthreadest-fp16.tflite --model_name=robot --platform=k210 --dataset=C:UsersAdministratorDesktop tthread rain #--project:使用你创建的rtthread项目地址。 #--model使用你训练好的tflite模型 #--model_name:自己起一个模型名称 #--dataset:放入自己训练的数据集
回到rt-thread编译下载项目。 ![在这里插入图片描述](https://img-blog.img.cn/f87f3279af3b4e99a6faddc7845b2643.png 3. 将我们训练好的tflite模型放到开发板上测试。打开vscode,我们先安装mirco python的插件。然后打开或者新建自己的测试文件。 编写自己的测试文件,连接开发板进行测试。
上一篇:
JS实现多线程数据分片下载
下一篇:
神经网络之输出层设计