yolov5训练的模型移植rt-thread并测试

yolov5训练的模型移植rt-thread并测试

  1. 将训练好的yolov5模型转换成tflite模型。
    进入yolov5项目文件夹下,运行export.py文件。
python export.py --weights best.pt --include tflite
#--weight:权重文件地址
#--include:转换成哪种模型类型
export.py支持的转换类型
Format                      | `export.py --include`         | Model
---                         | ---                           | ---
PyTorch                     | -                             | yolov5s.pt
TorchScript                 | `torchscript`                 | yolov5s.torchscript
ONNX                        | `onnx`                        | yolov5s.onnx
OpenVINO                    | `openvino`                    | yolov5s_openvino_model/
TensorRT                    | `engine`                      | yolov5s.engineD
CoreML                      | `coreml`                      | yolov5s.mlmodel
TensorFlow SavedModel       | `saved_model`                 | yolov5s_saved_model/
TensorFlow GraphDef         | `pb`                          | yolov5s.pb
TensorFlow Lite             | `tflite`                      | yolov5s.tflite
TensorFlow Edge TPU         | `edgetpu`                     | yolov5s_edgetpu.tflite
TensorFlow.js               | `tfjs`                        | yolov5s_web_model/
    运行完后会生成best.tflite.
  1. 烧录rt-thread的源码。
    打开rt-thread stdio 我们将进行基础配置更改。打开文件->新建rtthread项目.选择自己的工程目录和开发板(这里使用k210作为例子)。bsp版本务必选择1.0.4版本。

依次点击这两个按键。 点开mpy按如图所示配置。 再点击软件包-> 语言包->mrico python打开hardware的lcd其他配置如图所示 ctrl+s保存。打开rt-ak项目中的aitools文件并运行。

--project=C:UsersAdministratorDesktop
tthreadipr --model=C:UsersAdministratorDesktop
tthreadest-fp16.tflite --model_name=robot --platform=k210 --dataset=C:UsersAdministratorDesktop
tthread	rain
#--project:使用你创建的rtthread项目地址。
#--model使用你训练好的tflite模型
#--model_name:自己起一个模型名称
#--dataset:放入自己训练的数据集

回到rt-thread编译下载项目。 ![在这里插入图片描述](https://img-blog.img.cn/f87f3279af3b4e99a6faddc7845b2643.png 3. 将我们训练好的tflite模型放到开发板上测试。打开vscode,我们先安装mirco python的插件。然后打开或者新建自己的测试文件。 编写自己的测试文件,连接开发板进行测试。

经验分享 程序员 微信小程序 职场和发展