亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

YOLOv10:引領(lǐng)無NMS實(shí)時目標(biāo)檢測的新紀(jì)元

新機(jī)器視覺 ? 來源:新機(jī)器視覺 ? 2024-11-13 17:12 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

來自中國清華大學(xué)的研究人員推出了YOLOv10,這是一種具有卓越進(jìn)步的創(chuàng)新模型,展示了在計(jì)算機(jī)視覺領(lǐng)域的重要突破。這次發(fā)布體現(xiàn)了讓AI既易于使用又功能強(qiáng)大的承諾,標(biāo)志著重大進(jìn)展和改進(jìn)。

YOLO(You Only Look Once)系列一直是實(shí)時目標(biāo)檢測的基準(zhǔn),成功平衡了計(jì)算成本和檢測性能。盡管在架構(gòu)設(shè)計(jì)和優(yōu)化策略方面取得了進(jìn)展,但對非最大值抑制(NMS)的依賴阻礙了端到端部署,影響了推理延遲。YOLOv10通過消除NMS并優(yōu)化模型架構(gòu)推進(jìn)了效率和性能的邊界。

在這些進(jìn)展的背景下,OpenSistemas在AI領(lǐng)域脫穎而出,特別是在訓(xùn)練、測試和部署如YOLOv10這樣的模型方面。憑借對前沿技術(shù)的深刻理解和專長,OpenSistemas能夠充分利用YOLOv10的功能,提升目標(biāo)檢測任務(wù)的精度和效率。這種合作象征著創(chuàng)新與實(shí)際應(yīng)用的融合,推動了AI技術(shù)的可能性。

YOLOv10 的特別之處

YOLOv10的主要顯著進(jìn)步是消除了非最大值抑制(NMS)。NMS是許多目標(biāo)檢測模型中用于消除檢測到同一對象的冗余邊界框的后處理步驟。它通過保留得分最高的邊界框并移除其他重疊顯著的框來工作。盡管有效,但NMS增加了計(jì)算復(fù)雜性并增加了推理延遲,這會減慢實(shí)時應(yīng)用的速度。

YOLOv10通過采用一致的雙分配方法進(jìn)行無NMS訓(xùn)練,改變了模型處理重疊檢測的方式。通過將這一過程集成到模型的架構(gòu)和訓(xùn)練策略中,YOLOv10減少了后處理的需要,大大縮短了推理時間。這種延遲的減少對于速度和效率至關(guān)重要的實(shí)時應(yīng)用,如自動駕駛、監(jiān)控和實(shí)時視頻分析至關(guān)重要。消除NMS不僅簡化了部署過程,還通過提高模型的效率和響應(yīng)能力來提升其性能。

預(yù)訓(xùn)練模型

自從Ultralytics發(fā)布YOLOv5以來,我們已經(jīng)習(xí)慣了每次YOLO發(fā)布時提供各種模型尺寸:nano、small、medium、large和xlarge。YOLOv10也不例外,清華大學(xué)的研究人員也提供了一系列預(yù)訓(xùn)練模型,可以用于各種目標(biāo)檢測任務(wù)。

所有這些模型在延遲和平均精度(AP)方面表現(xiàn)出優(yōu)于之前YOLO版本的性能,如下圖所示:

bcd8dda8-9067-11ef-a511-92fbcf53809c.png

(圖:各YOLO模型在延遲(左)和參數(shù)數(shù)量(右)方面的性能比較)

你可以在下表中查看實(shí)際性能:

bcf3f8d6-9067-11ef-a511-92fbcf53809c.png

(表:可用的YOLOv10預(yù)訓(xùn)練模型,來源:Ultralytics網(wǎng)站)

使用

我們將嘗試使用原始的倉庫:

git clone https://github.com/THU-MIG/yolov10
cd yolov10
pip install -e .

# Choose the size of your model I will use the XLarge version
wget https://github.com/THU-MIG/yolov10/releases/download/v1.1/yolov10n/s/m/b/l/x.pt

然后,使用方法類似于YOLOv8:

Python

from ultralytics import YOLOv10 # Note the "v10" in the end
# Load a model
model = YOLOv10('yolov10x.pt') # load an official model
# Predict with the model
model.predict(0) # predict on your webcam

CLI

yolo predict model=yolov10x.pt source=0 # predict with official model on webcam

Ultralytics框架的預(yù)測源也可用:

bd235f04-9067-11ef-a511-92fbcf53809c.png

(圖:可用于預(yù)測的源,來源:Ultralytics文檔)

結(jié)果

bd4e0d30-9067-11ef-a511-92fbcf53809c.png

(圖:YOLOv10的目標(biāo)檢測示例。推理分辨率為384x640)

YOLOv8 vs YOLOv10: 推理延遲

比較YOLOv8和YOLOv10時,最顯著的改進(jìn)之一是推理延遲的減少。推理延遲,即模型處理圖像并進(jìn)行預(yù)測所需的時間,對于自動駕駛、視頻監(jiān)控和交互式AI系統(tǒng)等實(shí)時應(yīng)用至關(guān)重要。

YOLOv8盡管高效且強(qiáng)大,但依賴于非最大值抑制(NMS)來過濾冗余邊界框。這個額外步驟雖然有效地提高了檢測準(zhǔn)確性,但增加了計(jì)算開銷并延長了整體推理時間。

而YOLOv10通過一致的雙分配方法進(jìn)行無NMS訓(xùn)練,消除了對NMS的需求。通過將這一過程集成到模型架構(gòu)中,YOLOv10顯著減少了推理過程中所需的計(jì)算步驟。這使得處理時間更快,延遲更低,使YOLOv10更適合高速實(shí)時應(yīng)用。

在同一個視頻上,我使用NVIDIA GeForce RTX 4060 Laptop GPU, 7940MiB,得到的日志顯示差異非常大:

bd7a2e06-9067-11ef-a511-92fbcf53809c.png

(圖:YOLOv10在384x640分辨率下的推理延遲)

bd99119a-9067-11ef-a511-92fbcf53809c.png

(圖:YOLOv8在384x640分辨率下的推理延遲)

導(dǎo)出模型

如果你想了解導(dǎo)出模型的好處,可以查看這篇詳細(xì)介紹速度改進(jìn)的文章。類似于其他任務(wù),如檢測、分割和姿勢估計(jì),你可以使用Ultralytics框架導(dǎo)出YOLOv10模型。此過程包括將模型轉(zhuǎn)換為ONNX、CoreML、TensorFlow Lite等格式,確保與各種平臺和設(shè)備的兼容性。

這種多功能性允許在不同環(huán)境中更廣泛的集成,從移動應(yīng)用到邊緣設(shè)備。與前輩一樣,YOLOv10框架支持模型導(dǎo)出,便于在各種平臺上無縫部署。

Python

from ultralytics import YOLOv10
# Load a model
model = YOLOv10('yolov10x.pt') # load an official model
model = YOLOv10('path/to/best.pt') # load a custom trained model

# Export the model
model.export(format='onnx')

CLI

yolo export model=yolov10x.pt format=onnx # export official model
yolo export model=path/to/best.pt format=onnx # export custom trained model

結(jié)論

清華大學(xué)研究人員推出的YOLOv10,作為首個無NMS目標(biāo)檢測模型,代表了計(jì)算機(jī)視覺領(lǐng)域的重大進(jìn)步。與YOLOv8相比,YOLOv10顯著減少了推理延遲,使其更適合高速實(shí)時應(yīng)用,如自動駕駛、視頻監(jiān)控和交互式AI系統(tǒng)。這種推理過程中計(jì)算步驟的減少突顯了YOLOv10的效率和響應(yīng)能力。

此外,YOLOv10采用了新的無NMS訓(xùn)練方法,對其各部分進(jìn)行了微調(diào)以提高性能,并在速度和準(zhǔn)確性之間達(dá)到了很好的平衡。這些升級使得模型的部署更容易,性能更強(qiáng),速度更快,響應(yīng)更迅速。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    89

    文章

    37453

    瀏覽量

    292906
  • 目標(biāo)檢測
    +關(guān)注

    關(guān)注

    0

    文章

    230

    瀏覽量

    16350
  • 計(jì)算機(jī)視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1713

    瀏覽量

    47415

原文標(biāo)題:YOLOv10:無NMS實(shí)時目標(biāo)檢測的先鋒

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    技術(shù)分享 | RK3588基于Yolov5的目標(biāo)識別演示

    YOLO是一種基于深度神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測算法,用在圖像或視頻中實(shí)時識別和定位多個對象。在其各個版本的迭代中,YOLOv5憑借易用性和性能平衡在工業(yè)、醫(yī)療、農(nóng)業(yè)、零售等領(lǐng)域被廣泛的應(yīng)用。
    的頭像 發(fā)表于 09-18 17:27 ?900次閱讀
    技術(shù)分享 | RK3588基于<b class='flag-5'>Yolov</b>5的<b class='flag-5'>目標(biāo)</b>識別演示

    智慧科研新紀(jì)元:善思創(chuàng)興引領(lǐng)AI與自動化變革

    薄膜性能評估進(jìn)入三維精準(zhǔn)切片的新紀(jì)元。它突破傳統(tǒng)剝離測試局限,可同時精準(zhǔn)測量薄膜不同深度(如20μm、40μm、60μm)的剪切強(qiáng)度以及薄膜與基材間的 剝離強(qiáng)度 ,結(jié)果穩(wěn)定可靠、再現(xiàn)性優(yōu)異。 ?深度解析
    發(fā)表于 09-05 16:55

    Innovative Power Products (IPP) ——高精度微波組件,驅(qū)動未來通信新紀(jì)元

    Innovative Power Products (IPP) ——高精度微波組件,驅(qū)動未來通信新紀(jì)元Innovative Power Products(簡稱IPP)是一家總部位于美國紐約州霍爾
    發(fā)表于 07-10 09:42

    YOLOv8水果檢測示例代碼換成640輸入圖像出現(xiàn)目標(biāo)框繪制錯誤的原因 ?

    官網(wǎng)中的YOLOv8 水果檢測關(guān)于圖片推理的示例源代碼: from libs.YOLO import YOLOv8 import os,sys,gc import ulab.numpy as np
    發(fā)表于 06-18 06:37

    基于LockAI視覺識別模塊:C++目標(biāo)檢測

    (float score_threshold = 0.5, float nms_threshold = 0.3); 作用: 設(shè)置目標(biāo)檢測的置信度閾值和NMS閾值。 參數(shù): scor
    發(fā)表于 06-06 14:43

    泰芯半導(dǎo)體開啟AIOT高效傳輸新紀(jì)元

    今天,Wi-Fi/藍(lán)牙/星閃音視頻SOC芯片TXW82x及Wi-Fi Halow TXW8301S正式亮相!開啟高效傳輸?shù)?b class='flag-5'>新紀(jì)元!
    的頭像 發(fā)表于 05-29 14:30 ?1117次閱讀

    在K230上部署yolov5時 出現(xiàn)the array is too big的原因?

    重現(xiàn)步驟 1將yolov5的kmodel放入k230的data數(shù)據(jù) 2使用yolo大作戰(zhàn)里的視頻流推理代碼 3運(yùn)行 期待結(jié)果和實(shí)際結(jié)果 期待的結(jié)果 將目標(biāo)檢測的框圈起來 實(shí)際看到的結(jié)果
    發(fā)表于 05-28 07:47

    labview調(diào)用yolo目標(biāo)檢測、分割、分類、obb

    labview調(diào)用yolo目標(biāo)檢測、分割、分類、obb、pose深度學(xué)習(xí),支持CPU和GPU推理,32/64位labview均可使用。 (yolov5~yolov12)
    發(fā)表于 03-31 16:28

    深藍(lán)汽車攜手華為開創(chuàng)全民智駕新紀(jì)元

    2月9日,深藍(lán)汽車與華為在重慶正式簽署全面深化業(yè)務(wù)合作協(xié)議。作為普及全民智駕的長期戰(zhàn)略合作伙伴,雙方宣布將全面推動智能網(wǎng)聯(lián)汽車領(lǐng)域的合作,共同研發(fā)前沿技術(shù),開創(chuàng)全民智駕新紀(jì)元,加速推動智駕平權(quán),引領(lǐng)中國智能網(wǎng)聯(lián)汽車產(chǎn)業(yè)的未來。
    的頭像 發(fā)表于 02-10 10:28 ?792次閱讀

    中國信通院栗蔚:云計(jì)算與AI加速融合,如何開啟智算時代新紀(jì)元?

    中國信通院栗蔚:云計(jì)算與AI加速融合,如何開啟智算時代新紀(jì)元
    的頭像 發(fā)表于 01-17 18:48 ?1287次閱讀
    中國信通院栗蔚:云計(jì)算與AI加速融合,如何開啟智算時代<b class='flag-5'>新紀(jì)元</b>?

    采用華為云 Flexus 云服務(wù)器 X 實(shí)例部署 YOLOv3 算法完成目標(biāo)檢測

    一、前言 1.1 開發(fā)需求 這篇文章講解:?采用華為云最新推出的 Flexus 云服務(wù)器 X 實(shí)例部署 YOLOv3 算法,完成圖像分析、目標(biāo)檢測。 隨著計(jì)算機(jī)視覺技術(shù)的飛速發(fā)展,深度學(xué)習(xí)模型如
    的頭像 發(fā)表于 01-02 12:00 ?919次閱讀
    采用華為云 Flexus 云服務(wù)器 X 實(shí)例部署 <b class='flag-5'>YOLOv</b>3 算法完成<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b>

    Flexus X 實(shí)例 ultralytics 模型 yolov10 深度學(xué)習(xí) AI 部署與應(yīng)用

    前言: ???深度學(xué)習(xí)新紀(jì)元,828 B2B 企業(yè)節(jié) Flexus X 實(shí)例特惠!想要高效訓(xùn)練 YOLOv10 模型,實(shí)現(xiàn)精準(zhǔn)圖像識別?Flexus X 以卓越算力,助您輕松駕馭大規(guī)模數(shù)據(jù)集,加速
    的頭像 發(fā)表于 12-24 12:24 ?1110次閱讀
    Flexus X 實(shí)例 ultralytics 模型 <b class='flag-5'>yolov10</b> 深度學(xué)習(xí) AI 部署與應(yīng)用

    電梯物聯(lián)網(wǎng):重塑電梯行業(yè)的智能與安全新紀(jì)元

    在科技日新月異的今天,物聯(lián)網(wǎng)技術(shù)已經(jīng)滲透至我們生活的方方面面,電梯物聯(lián)網(wǎng)便是其中的一個重要分支。電梯物聯(lián)網(wǎng),通過傳感器、網(wǎng)絡(luò)通信等先進(jìn)技術(shù),將電梯與互聯(lián)網(wǎng)緊密相連,實(shí)現(xiàn)了對電梯運(yùn)行狀態(tài)的實(shí)時監(jiān)測與管理,正逐步引領(lǐng)電梯行業(yè)走向智能、安全與高效的
    的頭像 發(fā)表于 11-20 11:47 ?1489次閱讀

    YOLOv10自定義目標(biāo)檢測之理論+實(shí)踐

    概述 YOLOv10 是由清華大學(xué)研究人員利用 Ultralytics Python 軟件包開發(fā)的,它通過改進(jìn)模型架構(gòu)并消除非極大值抑制(NMS)提供了一種新穎的實(shí)時目標(biāo)
    的頭像 發(fā)表于 11-16 10:23 ?2845次閱讀
    <b class='flag-5'>YOLOv10</b>自定義<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b>之理論+實(shí)踐

    在樹莓派上部署YOLOv5進(jìn)行動物目標(biāo)檢測的完整流程

    卓越的性能。本文將詳細(xì)介紹如何在性能更強(qiáng)的計(jì)算機(jī)上訓(xùn)練YOLOv5模型,并將訓(xùn)練好的模型部署到樹莓派4B上,通過樹莓派的攝像頭進(jìn)行實(shí)時動物目標(biāo)檢測。 一、在電腦上訓(xùn)練
    的頭像 發(fā)表于 11-11 10:38 ?4547次閱讀
    在樹莓派上部署<b class='flag-5'>YOLOv</b>5進(jìn)行動物<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b>的完整流程