亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

GPT-4o深夜炸場(chǎng)!AI實(shí)時(shí)視頻通話絲滑如人類,Plus功能免費(fèi)可用

穎脈Imgtec ? 2024-05-15 08:27 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

轉(zhuǎn)自:量子位 | 公眾號(hào) QbitAI

不開玩笑,電影《她》真的來(lái)了。

OpenAI最新旗艦大模型GPT-4o,不僅免費(fèi)可用,能力更是橫跨聽、看、說(shuō),絲滑流暢毫無(wú)延遲,就像在打一個(gè)視頻電話。

現(xiàn)場(chǎng)直播的效果更是炸裂:

它能感受到你的呼吸節(jié)奏,也能用比以前更豐富的語(yǔ)氣實(shí)時(shí)回復(fù),甚至可以做到隨時(shí)打斷。


GPT-4o里的“o”是Omni的縮寫,也就是“全能”的意思,接受文本、音頻和圖像的任意組合作為輸入,并生成文本、音頻和圖像輸出。

它可以在短至232毫秒、平均320毫秒的時(shí)間內(nèi)響應(yīng)音頻輸入,與人類在對(duì)話中的反應(yīng)速度一致。


這還是一份給所有人的大禮,GPT4-o與ChatGPT Plus會(huì)員版所有的能力,包括視覺、聯(lián)網(wǎng)、記憶、執(zhí)行代碼、GPT Store……

將對(duì)所有用戶免費(fèi)開放!

eb0e1682-1251-11ef-9118-92fbcf53809c.png

(新語(yǔ)音模式幾周內(nèi)先對(duì)Plus用戶開放)在直播現(xiàn)場(chǎng),CTO Murati穆姐說(shuō):這是把GPT-4級(jí)別的模型開放出去,其實(shí)她還謙虛了。

在場(chǎng)外,研究員William Fedus揭秘,GPT-4o就是之前在大模型競(jìng)技場(chǎng)搞A/B測(cè)試的模型之一,im-also-a-good-gpt2-chatbot。

無(wú)論從網(wǎng)友上手體驗(yàn)還是競(jìng)技場(chǎng)排位來(lái)看,都是高于GPT-4-Turbo級(jí)別的模型了,ELO分?jǐn)?shù)一騎絕塵。

eb122dc6-1251-11ef-9118-92fbcf53809c.png

而這樣的超強(qiáng)模型也將提供API,價(jià)格打5折,速度提高一倍,單位時(shí)間調(diào)用次數(shù)足足是原來(lái)的5倍!

追直播的網(wǎng)友已經(jīng)在設(shè)想可能的應(yīng)用,可以替代盲人看世界了。以及確實(shí)感覺比之前的語(yǔ)音模式體驗(yàn)上強(qiáng)上不少。

eb5edc84-1251-11ef-9118-92fbcf53809c.png

鑒于之前不少人就已經(jīng)和ChatGPT語(yǔ)音模式“談戀愛”了,有大膽想法的朋友,可以把你們的想法發(fā)在評(píng)論區(qū)了。


總裁Brockman在線演示

知道OpenAI發(fā)布會(huì)為什么定在谷歌I/O前一天了——打臉,狠狠打臉。

谷歌Gemini發(fā)布會(huì)需要靠剪輯視頻和切換提示詞達(dá)成的偽實(shí)時(shí)對(duì)話效果,OpenAI現(xiàn)場(chǎng)全都直播演示了。

比如讓ChatGPT在語(yǔ)言不通的兩個(gè)人之間充當(dāng)翻譯機(jī),聽到英語(yǔ)就翻譯成意大利語(yǔ),聽到意大利語(yǔ)就翻譯成英語(yǔ)。


發(fā)布會(huì)直播之外,總裁哥Brockman還發(fā)布了額外的5分鐘詳細(xì)演示。而且是讓兩個(gè)ChatGPT互相對(duì)話,最后還唱起來(lái)了,戲劇感直接拉滿。這兩個(gè)ChatGPT,一個(gè)是舊版APP,只知道對(duì)話,另一個(gè)則是新版網(wǎng)頁(yè),具備視覺等新能力。(我們不妨取Old和New的首字母,分別叫TA們小O和小N)eb8f021a-1251-11ef-9118-92fbcf53809c.pngBrockman首先向小O介紹了大致情況,告訴她要和一個(gè)擁有視覺能力的AI對(duì)話,她表示很酷并欣然接受。接著,Brockman讓她稍作休息,并向小N也介紹情況,還順帶展示了小N的視覺能力。只見打完招呼后,小N準(zhǔn)確地說(shuō)出了Brockman的衣著打扮和房間環(huán)境。而對(duì)于要和小O對(duì)話這件事,小N也感到很有趣。
接下來(lái)就是小O和小N相互對(duì)白的時(shí)間了,TA們依然是從Brockman的衣著開始聊起,小O不斷提出新的問(wèn)題,小N都一一解答。接著,他們又談?wù)摿朔块g的風(fēng)格、布置和光線,甚至小N還意識(shí)到了Brockman正站在上帝視角凝視著TA們。


如果你看了這段視頻就會(huì)發(fā)現(xiàn),畫面中出現(xiàn)了一個(gè)女人在Brockman身后做了些惡搞的手勢(shì)。這可不是亂入,是Brockman和女人串通好,專門給小N設(shè)計(jì)的一道“考題”。

就在小O和小N聊的正開心的時(shí)候,Brockman選擇加入,直接問(wèn)有沒有看到什么不正常的地方。結(jié)果是小N直接識(shí)破了Brockman的小伎倆,直接復(fù)述出了女人在他身后做小動(dòng)作的場(chǎng)景,小O聽了之后直接感嘆原來(lái)在這里享受樂(lè)趣的不只有我們兩個(gè)。Brockman把這句話當(dāng)成了夸贊,并對(duì)小O表示了感謝,還愉快地加入了TA們的對(duì)話。之后是最后也是最精彩的部分,在Brockman的指揮下,小O和小N根據(jù)剛才聊天的內(nèi)容,直接開啟了對(duì)唱模式。只過(guò)了簡(jiǎn)單幾輪,銜接地就十分密切,而且旋律悠揚(yáng),音色也是和真人毫無(wú)二致。
最后視頻以Brockman唱出的一句Thank you結(jié)束,在視頻外的推文中他還透露新的語(yǔ)音對(duì)話功能將在數(shù)周內(nèi)向Plus用戶開放。

ebcac93a-1251-11ef-9118-92fbcf53809c.png


端到端訓(xùn)練,一個(gè)神經(jīng)網(wǎng)絡(luò)搞定語(yǔ)音文本圖像

正如奧特曼在發(fā)布會(huì)前所說(shuō),GPT-4o讓人感覺像魔法一樣,那么它是如何做到的呢?非常抱歉,這次非但沒有論文,連技術(shù)報(bào)告也不發(fā)了,只在官網(wǎng)Blog里有一段簡(jiǎn)短的說(shuō)明。在GPT-4o之前,ChatGPT語(yǔ)音模式由三個(gè)獨(dú)立模型組成,語(yǔ)音轉(zhuǎn)文本→GPT3.5/GPT-4→文本轉(zhuǎn)語(yǔ)音。我們也可以讓舊版ChatGPT語(yǔ)音模式自己講一下具體是怎么個(gè)流程。ebe410c0-1251-11ef-9118-92fbcf53809c.jpg這樣一來(lái),整個(gè)系統(tǒng)的延遲足足有2.8秒(GPT-3.5)和5.4秒(GPT-4),而且丟失了大量的信息,它無(wú)法直接感受音調(diào)、多個(gè)說(shuō)話者或背景噪音,也無(wú)法輸出笑聲、唱歌聲,或表達(dá)情感。ebfabea6-1251-11ef-9118-92fbcf53809c.jpgGPT-4o則是跨文本、視覺和音頻端到端訓(xùn)練的新模型,這意味著所有輸入和輸出都由同一個(gè)神經(jīng)網(wǎng)絡(luò)處理。在語(yǔ)音翻譯任務(wù)上,強(qiáng)于OpenAI專門的語(yǔ)音模型Whisper-V3以及谷歌和Meta的語(yǔ)音模型。ec8d0a68-1251-11ef-9118-92fbcf53809c.png在視覺理解上,也再次反超Gemini 1.0 Ultra與對(duì)家Claude Opuseca698d4-1251-11ef-9118-92fbcf53809c.png

雖然技術(shù)方面這次透露的消息就這么多了,不過(guò)也有學(xué)者評(píng)價(jià)。

一個(gè)成功的演示相當(dāng)于1000篇論文。

ecaabb4e-1251-11ef-9118-92fbcf53809c.png


One More Thing

除了OpenAI帶來(lái)的精彩內(nèi)容之外,也別忘了北京時(shí)間5月15日凌晨,谷歌將召開I/O大會(huì)。到時(shí)量子位將繼續(xù)第一時(shí)間帶來(lái)最新消息。另外根據(jù)網(wǎng)友推測(cè),GPT-4o這么強(qiáng),全都免費(fèi)開放了,這是勸大家不續(xù)訂ChatGPT Plus了的意思嗎?那肯定不是啊~ecaef9f2-1251-11ef-9118-92fbcf53809c.png鑒于OpenAI春節(jié)期間在谷歌發(fā)布Gemini 1.5 Pro后半小時(shí)左右用Sora狙擊了一把,明天OpenAI還有新活也說(shuō)不定呢?直播回放

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    89

    文章

    37529

    瀏覽量

    293173
  • 人工智能
    +關(guān)注

    關(guān)注

    1813

    文章

    49594

    瀏覽量

    260018
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    368

    瀏覽量

    16675
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【RA4M2-SENSOR】3、使用GPT定時(shí)器-PWM輸出

    項(xiàng)目01_I2C_OLED復(fù)制一份,重命名為02_PWM 查看原理圖得知,P102引腳可用GPT功能。 點(diǎn)擊configuration.xml文件,按下面幾張圖所示內(nèi)容配置。 打開引腳配置界面(Pin
    發(fā)表于 09-01 15:20

    當(dāng)貝X5S Plus搭載MediaTek MT9669旗艦投影芯片

    當(dāng)貝 X5S Plus 搭載的 MediaTek MT9669 旗艦投影芯片集成高效能、多核 CPU、GPU 及專用 AI 處理單元(APU),以強(qiáng)悍算力,保障你的流暢投影體驗(yàn)。
    的頭像 發(fā)表于 07-17 17:58 ?1131次閱讀

    GPT-4o怎么搶了Midjourney的飯碗

    這或許才是人類發(fā)明AI的終極目標(biāo)——讓技術(shù)普惠到每一個(gè)角落。
    的頭像 發(fā)表于 04-14 16:26 ?9351次閱讀
    <b class='flag-5'>GPT-4o</b>怎么搶了Midjourney的飯碗

    AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》----- 學(xué)習(xí)如何開發(fā)視頻應(yīng)用

    開發(fā)一個(gè)視頻內(nèi)容生成Agent。 訪問(wèn)語(yǔ)聚AI平臺(tái)官網(wǎng) ,進(jìn)行注冊(cè)或登錄。 在平臺(tái)首頁(yè),了解語(yǔ)聚AI功能和應(yīng)用場(chǎng)景,特別是其支持的視頻
    發(fā)表于 03-05 19:52

    FPGA+AI組合如何重塑未來(lái)世界:看看DeepSeek東方神秘力量如何預(yù)測(cè)......

    功能模塊,AI引擎、可變精度DSP。 ? 靈活性:FPGA可以在系統(tǒng)運(yùn)行中重新編程,實(shí)現(xiàn)功能的動(dòng)態(tài)重構(gòu)。 ? 低功耗:與ASIC相比,F(xiàn)PGA在功耗方面具有優(yōu)勢(shì),尤其是在處理低延遲任
    發(fā)表于 03-03 11:21

    從性能到商業(yè),Grok3、GPT-4o、DeepSeek如何重塑AI版圖?

    2025年2月,AI領(lǐng)域仿佛上演了一場(chǎng)激烈的“諸神之戰(zhàn)”,馬斯克旗下xAI發(fā)布的Grok3、OpenAI推出的GPT-4o以及持續(xù)憑借R1模型大放異彩的DeepSeek,三大巨頭強(qiáng)勢(shì)登場(chǎng),讓A
    的頭像 發(fā)表于 02-19 18:14 ?1472次閱讀
    從性能到商業(yè),Grok3、<b class='flag-5'>GPT-4o</b>、DeepSeek如何重塑<b class='flag-5'>AI</b>版圖?

    馬斯克發(fā)布Grok 3大模型,超越GPT-4o

    多項(xiàng)benchmark測(cè)試中,Grok 3取得了比DeepSeek-v3、GPT-4o以及Gemini-2 pro更優(yōu)的效果。這一成績(jī)無(wú)疑彰顯了Grok 3在人工智能領(lǐng)域的卓越實(shí)力。 值得一提的是,Grok 3已經(jīng)在xAI內(nèi)部運(yùn)行了兩周時(shí)間,經(jīng)過(guò)了初步的測(cè)試和驗(yàn)證。馬斯克在發(fā)布預(yù)告時(shí),曾稱其為“地球上最
    的頭像 發(fā)表于 02-19 13:50 ?659次閱讀

    OpenAI宣布GPT 4o升智計(jì)劃

    透露,GPT 4o的智力水平將得到顯著提升,目標(biāo)直指o3 pro的水平。這一升級(jí)不僅意味著GPT 4o在理解和生成文本方面的能力將得到質(zhì)的飛
    的頭像 發(fā)表于 02-17 14:24 ?807次閱讀

    ChatGPT Plus 2025新功能搶先看:如何訂閱與使用全攻略

    的交互 ChatGPT Plus作為付費(fèi)訂閱服務(wù),提供了一系列增強(qiáng)功能和優(yōu)勢(shì),讓用戶體驗(yàn)更上一層樓: 更強(qiáng)模型驅(qū)動(dòng) (GPT-4及更高版本): ?訂閱用戶可訪問(wèn)性能更強(qiáng)、回答更準(zhǔn)確、對(duì)話能力更復(fù)雜的模型(
    的頭像 發(fā)表于 02-13 19:59 ?1903次閱讀

    引領(lǐng)少兒 AI 編程教育革新!英荔教育率先接入 DeepSeek

    進(jìn)的大模型(GPT-4o、Midjourney V6、Suno V3、Animate Diff 等),讓孩子進(jìn)行對(duì)話、文生圖、文生視頻、PDF
    的頭像 發(fā)表于 02-11 13:16 ?1667次閱讀

    OpenAI報(bào)告GPT-4o4o-mini模型性能下降,正緊急調(diào)查

    近日,全球領(lǐng)先的AI研究機(jī)構(gòu)OpenAI發(fā)布了一份事故報(bào)告,引起了業(yè)界的廣泛關(guān)注。報(bào)告中指出,OpenAI目前正面臨GPT-4o4o-mini這兩款重要模型性能下降的問(wèn)題。 據(jù)OpenAI方面透露
    的頭像 發(fā)表于 01-23 10:22 ?1051次閱讀

    OpenAI:GPT-4o4o-mini模型性能下降,正展開調(diào)查

    近期,OpenAI發(fā)布了一份事故報(bào)告,指出其GPT-4o4o-mini模型遭遇了性能下降的問(wèn)題。這一消息引起了業(yè)界的廣泛關(guān)注和討論。 據(jù)OpenAI官方透露,他們目前正在積極調(diào)查這一性能下降的原因
    的頭像 發(fā)表于 01-21 10:34 ?871次閱讀

    商湯科技推出SenseNova-5o,限時(shí)免費(fèi)實(shí)時(shí)視頻對(duì)話服務(wù)

    實(shí)時(shí)交互、視覺識(shí)別、記憶思考、持續(xù)對(duì)話和復(fù)雜推理等多項(xiàng)能力。這些功能使得AI人類之間的交流更加自然、流暢,每一次互動(dòng)都充滿了智能與貼心。 通過(guò)SenseNova-5
    的頭像 發(fā)表于 01-20 15:11 ?983次閱讀

    如何在邊緣端獲得GPT4-V的能力:算力魔方+MiniCPM-V 2.6

    本 OpenCompass 榜單上(綜合 8 個(gè)主流多模態(tài)評(píng)測(cè)基準(zhǔn))平均得分 65.2,以8B量級(jí)的大小在單圖理解方面超越了 GPT-4o mini、GPT-4V、Gemini 1.5 Pro 和 Cl
    的頭像 發(fā)表于 01-20 13:40 ?1027次閱讀
    如何在邊緣端獲得<b class='flag-5'>GPT4</b>-V的能力:算力魔方+MiniCPM-V 2.6

    AI智能體逼真模擬人類行為

    與先進(jìn)的GPT-4o模型進(jìn)行巧妙結(jié)合。當(dāng)用戶向智能體提出問(wèn)題時(shí),系統(tǒng)會(huì)迅速加載訪談數(shù)據(jù),并驅(qū)動(dòng)AI智能體模仿受訪者的回答風(fēng)格,實(shí)現(xiàn)高度個(gè)性化的互動(dòng)體驗(yàn)。 為了獲取這些寶貴的訪談數(shù)據(jù),研究團(tuán)隊(duì)對(duì)每位受訪者進(jìn)行了長(zhǎng)達(dá)兩小時(shí)的深入訪談,并借助OpenAI的
    的頭像 發(fā)表于 11-26 10:24 ?1103次閱讀