亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

多模態(tài)機(jī)器學(xué)習(xí)的圖像語言轉(zhuǎn)換器

傳感器技術(shù) ? 來源:麻省科技評論 ? 作者:麻省科技評論 ? 2022-04-24 15:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

對于 AI 系統(tǒng)來說,將語言與視覺聯(lián)系起來是它需要面對并學(xué)會解決的基本問題,例如在進(jìn)行圖像的檢索時(shí),AI 系統(tǒng)需要既能識別圖像,也能識別語言,并將二者相關(guān)聯(lián)起來。

對于這類需要 AI 系統(tǒng)識別不同種類或形式的信息來源的任務(wù)中,就需要多模態(tài)機(jī)器學(xué)習(xí)(MML/Multimodal Machine Learning)來發(fā)揮作用。所謂模態(tài),指的是一種信息的來源或形式,例如文字、圖像、視頻、音頻等都是模態(tài)。多模態(tài)機(jī)器學(xué)習(xí)是指利用機(jī)器學(xué)習(xí)來處理多種模態(tài)的信息。

近些年來,在多模態(tài)機(jī)器學(xué)習(xí)領(lǐng)域中,多模態(tài)圖像語言轉(zhuǎn)換器(Multimodal image–language transformers)已經(jīng)取得了深刻進(jìn)展,尤其在解決各種需要微調(diào)的任務(wù),如視覺問答、圖像檢索中發(fā)揮了關(guān)鍵性作用。

但是,在既需要處理圖像又需要處理語言文本的多模態(tài)機(jī)器學(xué)習(xí)任務(wù)中,有一類問題對于多模態(tài)圖像語言轉(zhuǎn)換器來說尤其棘手,那就是對文本中的動詞的理解。例如要求 AI 系統(tǒng)來在圖像中區(qū)分識別找出“踢球”和“拋球”這兩種情景。在這一任務(wù)中,AI 系統(tǒng)不僅需要識別出圖像中的“球”這一對象,還需要識別圖像中不同對象之間的關(guān)系。

為了評估近年來多模態(tài)圖像語言轉(zhuǎn)換器的預(yù)訓(xùn)練水平,尤其是在“看圖理解”中對于上文所說的動詞的識別能力。近日,DeepMind 開發(fā)出一套方法,并引入了名為 SVO-Probes 的“圖像-句子對” 數(shù)據(jù)集,來評估不同 AI 系統(tǒng)的多模態(tài)預(yù)訓(xùn)練模型對于動詞的理解水平,尤其是了解這些 AI 系統(tǒng)多模態(tài)轉(zhuǎn)換器的預(yù)訓(xùn)練模型在結(jié)合語言文本來識別圖像時(shí),到底是既能夠識別中圖片中的物體、也能區(qū)分中圖像中的動作,還是只能夠識別出圖中的物體。

為了達(dá)到這一目的,DeepMind 建立的 SVO-Probes 數(shù)據(jù)集包含了 48000 個(gè)圖像-句子對,可以測試 AI 系統(tǒng)對 447 個(gè)動詞的理解,這些動詞要么是視覺可以區(qū)分的,要么是在預(yù)訓(xùn)練數(shù)據(jù)中常見的,例如許多概念字幕數(shù)據(jù)集。這個(gè)數(shù)據(jù)集中的每個(gè)句子都可以分解成 一個(gè) <主語、動詞、賓語> 三元組,也就是 SVO 三元組,并分別配對有與句子描述的內(nèi)容相符和不符的圖像,它們在是實(shí)驗(yàn)中分別被稱為“正實(shí)例圖像” 和 “負(fù)實(shí)例圖像”。

69a52362-c3a0-11ec-bce3-dac502259ad0.png

圖|評估多模態(tài)語言圖像轉(zhuǎn)換器對于動詞的識別能力的 SVO- Probes 數(shù)據(jù)集中的圖像-句子對(來源:DeepMind)

上圖顯示了圖像-句子對的幾個(gè)例子,以左上角的圖像-句子對為例,分別顯示了與句子“孩子、過、馬路”相符的正示例圖像,以及與“女士、過、馬路”不符的負(fù)示例圖像,通過這一對可以測試 AI 系統(tǒng)識別圖中的對象——也就是名詞的能力;而上方中間的圖像-句子對,則分別顯示了”人、唱歌、演唱會上“ 的正示例圖像和”“人、跳舞、演唱會上“ 的負(fù)示例圖像。通過這一對就可以既測試 AI 系統(tǒng)識別圖中的名詞的能力,也能測試 AI 識別動詞的能力。

在實(shí)驗(yàn)中使用這一 SVO-Probes 數(shù)據(jù)集以零樣本的方式對 AI 預(yù)訓(xùn)練模型進(jìn)行評估之后,DeepMind 的工程師發(fā)現(xiàn),相比名詞等其他詞性,預(yù)訓(xùn)練模型在需要動詞理解的情況下錯誤率要高很多。

下面的條形圖詳細(xì)說明了測試的結(jié)果。標(biāo)準(zhǔn)多模態(tài)轉(zhuǎn)換器模型經(jīng)過測試后總體準(zhǔn)確率達(dá)到 64.3%,這也顯示了 SVO- Probes 數(shù)據(jù)集確實(shí)具有挑戰(zhàn)性。而這一 AI 模型在對于主語和賓語判斷的準(zhǔn)確率分別為 67.0% 和 73.4%,但是對于動詞判斷的準(zhǔn)確率卻下降到 60.8%。這一結(jié)果表明,動詞識別確實(shí)對 AI 系統(tǒng)模型具有挑戰(zhàn)性。

此外,該公司的工程師們還進(jìn)一步總結(jié)調(diào)查了哪些類別的動詞對于這些 AI 預(yù)訓(xùn)練模型尤其具有挑戰(zhàn)性。結(jié)果發(fā)現(xiàn),像“抓”這樣的運(yùn)動性動詞以及“帶領(lǐng)”這樣在不同類型的語境中經(jīng)常出現(xiàn)的動詞對于 AI 來說更容易。而 AI 模型判斷的正確率最高的動詞有“打斗”“包圍”“滑雪”“參加”等;而錯誤率最高的幾個(gè)動詞有“切”“爭論”“斷”等。

69be475c-c3a0-11ec-bce3-dac502259ad0.png

圖|多模態(tài)機(jī)器學(xué)習(xí)的圖像語言轉(zhuǎn)換器對于 SVO-Probes 數(shù)據(jù)集進(jìn)行判斷測試之后的結(jié)果(來源:DeepMind)

值得一提的是,當(dāng)工程師們對哪些模型架構(gòu)在 SVO-Probes 數(shù)據(jù)集上的表現(xiàn)更好這一問題進(jìn)行探索時(shí),他們驚訝地發(fā)現(xiàn),相比圖像建模能力更強(qiáng)的標(biāo)準(zhǔn)圖像語言轉(zhuǎn)換器模型,那些圖像建模較弱的模型反而表現(xiàn)更好。對這一與直覺相反的發(fā)現(xiàn)的解釋的一個(gè)假設(shè)是,標(biāo)準(zhǔn)轉(zhuǎn)換器模型在圖像識別方面可能有些“過度訓(xùn)練”了。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 轉(zhuǎn)換器
    +關(guān)注

    關(guān)注

    27

    文章

    9312

    瀏覽量

    154785
  • AI
    AI
    +關(guān)注

    關(guān)注

    89

    文章

    37511

    瀏覽量

    293138
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1229

    瀏覽量

    26000

原文標(biāo)題:AI多模態(tài)圖像語言轉(zhuǎn)換器在看圖理解中對動詞的識別力

文章出處:【微信號:WW_CGQJS,微信公眾號:傳感器技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    亞馬遜云科技上線Amazon Nova模態(tài)嵌入模型

    Embeddings模態(tài)嵌入模型現(xiàn)已在Amazon Bedrock上線,這是一款專為Agentic RAG與語義搜索應(yīng)用打造的頂尖模態(tài)嵌入模型。該模型是首個(gè)通過單一模型支持文本、
    的頭像 發(fā)表于 10-29 17:15 ?51次閱讀
    亞馬遜云科技上線Amazon Nova<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>嵌入模型

    米爾RK3576部署端側(cè)模態(tài)輪對話,6TOPS算力驅(qū)動30億參數(shù)LLM

    細(xì)化需求,系統(tǒng)需實(shí)時(shí)調(diào)整響應(yīng)策略 1.2 輪對話系統(tǒng)鳥瞰:三顆“核心”協(xié)同驅(qū)動RK3576 模態(tài)交互對話方案基于 RKLLM 的核心運(yùn)作,依賴于圖像視覺編碼
    發(fā)表于 09-05 17:25

    淺析模態(tài)標(biāo)注對大模型應(yīng)用落地的重要性與標(biāo)注實(shí)例

    ?在人工智能邁向AGI通用智能的關(guān)鍵道路上,大模型正從單一的文本理解者,演進(jìn)為能同時(shí)看、聽、讀、想的“多面手”。驅(qū)動這一進(jìn)化的核心燃料,正是高質(zhì)量的模態(tài)數(shù)據(jù),而將原始數(shù)據(jù)轉(zhuǎn)化為“機(jī)器可讀教材
    的頭像 發(fā)表于 09-05 13:49 ?431次閱讀

    基于米爾瑞芯微RK3576開發(fā)板的Qwen2-VL-3B模型NPU模態(tài)部署評測

    關(guān)鍵詞:瑞芯微 RK3576、NPU(神經(jīng)網(wǎng)絡(luò)處理)、端側(cè)小語言模型(SLM)、模態(tài) LLM、邊緣 AI 部署、開發(fā)板、RKLLM隨著大語言
    發(fā)表于 08-29 18:08

    飛凌嵌入式RK3576模態(tài)大模型圖像理解助手,讓嵌入式設(shè)備“看懂”世界

    (LLM)+視覺語言模型(VLM)模態(tài)架構(gòu),推出模態(tài)大模型圖像理解助手,為嵌入式設(shè)備打造 “
    的頭像 發(fā)表于 07-25 11:09 ?1287次閱讀
    飛凌嵌入式RK3576<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大模型<b class='flag-5'>圖像</b>理解助手,讓嵌入式設(shè)備“看懂”世界

    國產(chǎn)模數(shù)轉(zhuǎn)換器100%替換ADS1278應(yīng)用于振動和模態(tài)分析

    國產(chǎn)模數(shù)轉(zhuǎn)換器100%替換ADS1278應(yīng)用于振動和模態(tài)分析
    的頭像 發(fā)表于 04-16 09:50 ?536次閱讀
    國產(chǎn)模數(shù)<b class='flag-5'>轉(zhuǎn)換器</b>100%替換ADS1278應(yīng)用于振動和<b class='flag-5'>模態(tài)</b>分析

    移遠(yuǎn)通信智能模組全面接入模態(tài)AI大模型,重塑智能交互新體驗(yàn)

    隨著千行百業(yè)數(shù)智化進(jìn)程的不斷加速,模態(tài)AI大模型的應(yīng)用需求不斷攀升,圖像、語音、視頻等多樣化的交互方式正逐漸成為推動行業(yè)變革的新動力。 ? 3月20日,全球物聯(lián)網(wǎng)整體解決方案供應(yīng)商移遠(yuǎn)通信宣布,其
    發(fā)表于 03-21 14:12 ?384次閱讀
    移遠(yuǎn)通信智能模組全面接入<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>AI大模型,重塑智能交互新體驗(yàn)

    移遠(yuǎn)通信智能模組全面接入模態(tài)AI大模型,重塑智能交互新體驗(yàn)

    隨著千行百業(yè)數(shù)智化進(jìn)程的不斷加速,模態(tài)AI大模型的應(yīng)用需求不斷攀升,圖像、語音、視頻等多樣化的交互方式正逐漸成為推動行業(yè)變革的新動力。3月20日,全球物聯(lián)網(wǎng)整體解決方案供應(yīng)商移遠(yuǎn)通信宣布,其全系
    的頭像 發(fā)表于 03-20 19:03 ?624次閱讀
    移遠(yuǎn)通信智能模組全面接入<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>AI大模型,重塑智能交互新體驗(yàn)

    ?VLM(視覺語言模型)?詳細(xì)解析

    視覺語言模型(Visual Language Model, VLM)是一種結(jié)合視覺(圖像/視頻)和語言(文本)處理能力的模態(tài)人工智能模型,
    的頭像 發(fā)表于 03-17 15:32 ?7066次閱讀
    ?VLM(視覺<b class='flag-5'>語言</b>模型)?詳細(xì)解析

    ?模態(tài)交互技術(shù)解析

    模態(tài)交互 模態(tài)交互( Multimodal Interaction )是指通過多種感官通道(如視覺、聽覺、觸覺等)或多種交互方式(如語音、手勢、觸控、眼動等)與計(jì)算機(jī)系統(tǒng)進(jìn)行自然、
    的頭像 發(fā)表于 03-17 15:12 ?3233次閱讀

    一文詳解視覺語言模型

    視覺語言模型(VLM)是一種模態(tài)、生成式 AI 模型,能夠理解和處理視頻、圖像和文本。
    的頭像 發(fā)表于 02-12 11:13 ?2905次閱讀
    一文詳解視覺<b class='flag-5'>語言</b>模型

    體驗(yàn)MiniCPM-V 2.6 模態(tài)能力

    模態(tài)組網(wǎng)
    jf_23871869
    發(fā)布于 :2025年01月20日 13:40:48

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人大模型

    。 模態(tài)融合的創(chuàng)新與突破 機(jī)器人控制技術(shù)的另一個(gè)重要突破在于模態(tài)大模型的應(yīng)用。相比于僅通過文字進(jìn)行人機(jī)交互的傳統(tǒng)方法,現(xiàn)代
    發(fā)表于 12-29 23:04

    一文理解模態(tài)語言模型——下

    /understanding-multimodal-llms ? 《一文理解模態(tài)語言模型 - 上》介紹了什么是模態(tài)
    的頭像 發(fā)表于 12-03 15:18 ?926次閱讀
    一文理解<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>語言</b>模型——下

    一文理解模態(tài)語言模型——上

    /understanding-multimodal-llms 在過去幾個(gè)月中, OpenVINO? 架構(gòu)師 Yury閱讀了眾多有關(guān)模態(tài)語言模型的論文和博客,在此基礎(chǔ)上,推薦了一篇解讀
    的頭像 發(fā)表于 12-02 18:29 ?1819次閱讀
    一文理解<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>語言</b>模型——上