曠視科技開源了內部目標檢測模型-YOLOX,性能與速度全面超越YOLOv5早期版本!



https://arxiv.org/pdf/2107.08430.pdfhttps://github.com/Megvii-BaseDetection/YOLOX
ONNX格式模型轉與部署
下載YOLOX的ONNX格式模型(github上可以下載)https://github.com/Megvii-BaseDetection/YOLOX/tree/main/demo/ONNXRuntimehttps://github.com/Megvii-BaseDetection/YOLOX/releases/download/0.1.1rc0/yolox_s.onnx
下載ONNX格式模型,打開之后如圖:

官方說明ONNX格式支持OpenVINO、ONNXRUNTIME、TensorRT三種方式,而且都提供源碼,官方提供的源碼參考如下:輸入格式:1x3x640x640,默認BGR,無需歸一化。輸出格式:1x8400x85
https://github.com/Megvii-BaseDetection/YOLOX/tree/main/demo
本人就是參考上述的代碼然后一通猛改,分別封裝成三個類,完成了統(tǒng)一接口,公用了后處理部分的代碼,基于本人筆記本的硬件資源與軟件版本:
在三個推理平臺上測試結果如下:-GPU 3050Ti-CPU i7 11代-OS:Win10 64位-OpenVINO2021.4-ONNXRUNTIME:1.7-CPU-OpenCV4.5.4-Python3.6.5-YOLOX-TensorRT8.4.x


OpenVINO推理

TensorRT推理 - FP32

轉威FP16

TensorRT推理 - FP16

總結
之前我寫過一篇文章比較了YOLOv5最新版本在OpenVINO、ONNXRUNTIME、OpenCV DNN上的速度比較,現(xiàn)在加上本篇比較了YOLOX在TensorRT、OpenVINO、ONNXRUNTIME上推理部署速度比較,得到的結論就是:能不改代碼,同時支持CPU跟GPU推理是ONNXRUNTIMEOpenCV DNN毫無意外的速度最慢(CPU/GPU)CPU上速度最快的是OpenVINOGPU上速度最快的是TensorRT
原文標題:YOLOX在OpenVINO、ONNXRUNTIME、TensorRT上面推理部署與速度比較
文章出處:【微信公眾號:OpenCV學堂】歡迎添加關注!文章轉載請注明出處。
-
模型
+關注
關注
1文章
3622瀏覽量
51585 -
目標檢測
+關注
關注
0文章
230瀏覽量
16349 -
OpenCV
+關注
關注
33文章
650瀏覽量
44232
原文標題:YOLOX在OpenVINO、ONNXRUNTIME、TensorRT上面推理部署與速度比較
文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學堂】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
NVIDIA TensorRT LLM 1.0推理框架正式上線
什么是AI模型的推理能力
使用aicube進行目標檢測識別數(shù)字項目的時候,在評估環(huán)節(jié)卡住了,怎么解決?
基于米爾瑞芯微RK3576開發(fā)板部署運行TinyMaix:超輕量級推理框架
如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署
大模型推理顯存和計算量估計方法研究
基于LockAI視覺識別模塊:C++目標檢測
labview調用yolo目標檢測、分割、分類、obb
添越智創(chuàng)基于 RK3588 開發(fā)板部署測試 DeepSeek 模型全攻略
摩爾線程宣布成功部署DeepSeek蒸餾模型推理服務
AI模型部署邊緣設備的奇妙之旅:目標檢測模型
高效大模型的推理綜述
在樹莓派上部署YOLOv5進行動物目標檢測的完整流程
YOLOv6在LabVIEW中的推理部署(含源碼)

YOLOX目標檢測模型的推理部署
評論