亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

GPT-4多模態(tài)模型發(fā)布,對ChatGPT的升級和斷崖式領(lǐng)先

智能計算芯世界 ? 來源:量子位、網(wǎng)絡(luò)整理 ? 2023-03-17 10:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

3 月14日晚,OpenAI 宣布發(fā)布 GPT-4。

此次的 GPT4.0 產(chǎn)品具備多模態(tài), 相比于 GPT-3.5,GPT4.0 新增視頻功能,并且能夠適用于所有語言。GPT-4.0 有 望加速 AIGC 的應(yīng)用普及,并且在視頻內(nèi)容生成方面大放異彩,AIGC 有望步入快 速發(fā)展階段,背后大幅增長的訓(xùn)練參數(shù)量有望加速 AI 算力的建設(shè)以及高速光通信 的需求。OpenAI 發(fā)布了一項新服務(wù),允許開發(fā)人員直接使用 ChatGPT,并且將使 用價格削減了 90%,此次大規(guī)模降價意味著底層技術(shù)平臺的優(yōu)化,這也將進(jìn)一步 加速此項技術(shù)的大規(guī)模商業(yè)化進(jìn)程。

而且 GPT-4 是多模態(tài)的,同時支持文本和圖像輸入功能。此外,GPT-4 比以前的版本“更大”,這意味著其已經(jīng)在更多的數(shù)據(jù)上進(jìn)行了訓(xùn)練,并且在模型文件中有更多的權(quán)重,這也使得它的運行成本更高。

ceb6641e-c430-11ed-bfe3-dac502259ad0.png

GPT-4 在一系列基準(zhǔn)測試中的表現(xiàn)優(yōu)于 GPT-3.5

OpenAI 稱它使用了微軟 Azure 來訓(xùn)練模型,但沒有公布有關(guān)具體模型大小或用于訓(xùn)練它的硬件的詳細(xì)信息。

據(jù)悉,GPT-4 參加了多種基準(zhǔn)考試測試,包括美國律師資格考試 Uniform Bar Exam、法學(xué)院入學(xué)考試 LSAT、“美國高考”SAT 數(shù)學(xué)部分和證據(jù)性閱讀與寫作部分的考試,在這些測試中,它的得分高于 88% 的應(yīng)試者。

OpenAI 表示,已經(jīng)與多家公司合作,要將 GPT-4 結(jié)合到他們的產(chǎn)品中,包括 Duolingo、Stripe 和 Khan Academy。GPT-4 模型也將以 API 的形式,提供給付費版 ChatGPT Plus 的訂閱用戶,允許開發(fā)者付費將 AI 集成到他們的應(yīng)用程序中。微軟表示,新款的必應(yīng)(Bing)搜索引擎將運行于 GPT-4 系統(tǒng)之上。

一覺醒來,萬眾期待的GPT-4,它來了!

OpenAI老板Sam Altman直接開門見山地介紹說:

這是我們迄今為止功能最強(qiáng)大的模型!

cece9bb0-c430-11ed-bfe3-dac502259ad0.png

有多強(qiáng)?

根據(jù)OpenAI官方的介紹,GPT-4是一個超大的多模態(tài)模型,也就是說,它的輸入可以是文字(上限2.5萬字),還可以是圖像。

(看圖)手套掉下去會怎樣? 它會掉到木板上,并且球會被彈飛。

cedfd0ec-c430-11ed-bfe3-dac502259ad0.gif

甚至只需要簡單在紙上畫一個網(wǎng)站的草稿圖:

cfd57dee-c430-11ed-bfe3-dac502259ad0.gif

拍一張照片上傳給GPT-4,它就可以立馬生成網(wǎng)站的HTML代碼!

d6415298-c430-11ed-bfe3-dac502259ad0.gif

在性能表現(xiàn)上,OpenAI直接甩出一句話:

在各種專業(yè)和學(xué)術(shù)基準(zhǔn)上和人類相當(dāng)!

而且不只是發(fā)布GPT-4這么簡單,OpenAI這次“啪的一下”把相關(guān)“大動作”一步到位了:

ChatGPT Plus:集成GPT-4的ChatGPT升級版

發(fā)布GPT-4的API

公布技術(shù)論文 * 公開System Card

不僅如此,傳聞的“必應(yīng)早就用上了GPT-4”在今天也得到了微軟方面的證實:

沒錯,確實是這樣的!

d6bd6fd6-c430-11ed-bfe3-dac502259ad0.png

不得不說,自打ChatGPT問世以來,微軟和谷歌之間打響的數(shù)輪科技戰(zhàn)役,微軟這次又雙叒叕贏麻了。

甚至這一次,不少網(wǎng)友都發(fā)出了“見證歷史”的感慨:

d6e2ba5c-c430-11ed-bfe3-dac502259ad0.png

史上最強(qiáng)大模型

正如之前傳言,GPT-4確實擁有多模態(tài)能力,可以接受圖像輸入并理解圖像內(nèi)容。

并且可接受的文字輸入長度也增加到3.2萬個token(約2.4萬單詞)。

升級之后,GPT-4在各種職業(yè)和學(xué)術(shù)考試上表現(xiàn)和人類水平相當(dāng)。

比如模擬律師考試,GPT-4取得了前10%的好成績,相比之下GPT-3.5是倒數(shù)10%。

做美國高考SAT試題,GPT-4也在閱讀寫作中拿下710分高分、數(shù)學(xué)700分(滿分800)。

d6f09014-c430-11ed-bfe3-dac502259ad0.png

那么GPT-4這些新能力實際用起來是什么樣的?技術(shù)報告中也給出不少展示。

首先,看圖能力可以用來解釋表情包、梗圖。

提問這張圖哪里好笑?GPT-4可以按順序描述出每一格的內(nèi)容,并總結(jié)出笑點:

用巨大的過時VGA接口給小巧的現(xiàn)代智能手機(jī)充電。

d6fd08da-c430-11ed-bfe3-dac502259ad0.png

更進(jìn)一步,GPT-4可以理解圖表中數(shù)據(jù)的含義,并做進(jìn)一步計算。

d72a0600-c430-11ed-bfe3-dac502259ad0.png

甚至可以直接把論文截圖發(fā)給它,GPT-4可以按像素處理其中的文字和圖片,并給出對整篇論文的總結(jié)摘要。

d7549f96-c430-11ed-bfe3-dac502259ad0.png

文字輸入長度限制的增加,也大大擴(kuò)展了GPT-4的實用性。

發(fā)布會直播上,OpenAI總裁Gregman現(xiàn)場表演了一波GPT-4給代碼修Bug。

出現(xiàn)問題啥也不用想,直接把1萬字的程序文檔一股腦扔給GPT-4就行。格式也不用管,你只需要Ctrl+A、Ctrl+C、Ctrl+V。

d79a3df8-c430-11ed-bfe3-dac502259ad0.gif

再最后附上出現(xiàn)的問題,在幾秒鐘內(nèi)瞬間得到解決辦法。

d7b24f42-c430-11ed-bfe3-dac502259ad0.png

在API方面,GPT-4還開放了一個使用功能,允許修改“系統(tǒng)提示”。

之前ChatGPT的回答總是冗長而平淡,這是因為系統(tǒng)提示中規(guī)定了“你只是一個語言模型……你的知識截止于2021年9月”。

現(xiàn)在通過修改這句話,GPT-4就可以展現(xiàn)出更多樣的性格,比如扮演蘇格拉底。

d87a0ece-c430-11ed-bfe3-dac502259ad0.png

也可以指定之后所有回答的形式,比如全用json格式。

d92c23ca-c430-11ed-bfe3-dac502259ad0.png

雖然GPT-4這波能力大升級,但之前ChatGPT會出現(xiàn)幻覺、胡說八道的毛病還是沒能完全改掉。

從前面的官方示例也可以看出,要想最大程度發(fā)揮GPT-4的能力,最好還是用上思維鏈路提示(Chain-of-thought Prompt)。

操作起來也非常簡單,只需在提問的時候額外提醒AI給出步驟,就能大大提高推理和計算的準(zhǔn)確率。

谷歌依舊在跟

就在GPT-4發(fā)布前,谷歌方面為了迎戰(zhàn)微軟,宣布將一系列即將推出的AIGC功能,應(yīng)用到自家產(chǎn)品中。

包括谷歌 Docs(文檔)、Gmail、Sheets(表格)和 Slides(幻燈片)。

d9572318-c430-11ed-bfe3-dac502259ad0.png

但不同于微軟和OpenAI的“發(fā)布即可用”,谷歌只會先將Docs和Gmail中的AI工具,在月底提供給一些“值得信賴的開發(fā)人員”。

而其它功能則將是在今年晚些時候向公眾開放。

至于具體時間,谷歌方面并沒有具體說明。

而外界對此評價是谷歌希望搶先微軟原定于本周四的發(fā)布。

但從今天的結(jié)果上來看,微軟依舊提前“搶灘登陸”。

d9f0f72c-c430-11ed-bfe3-dac502259ad0.png

在GPT-4發(fā)布之前,便有網(wǎng)友做出了GPT-3和GPT-4參數(shù)量的對比圖,并猜測GPT-4的參數(shù)量將達(dá)到100萬億。

這一次亦是如此。

有網(wǎng)友預(yù)言,未來GPT-5的參數(shù)量,會是這樣的:

da038ce8-c430-11ed-bfe3-dac502259ad0.png

但無論如何,這一次,我們離真·人工智能,更近了一步。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1813

    文章

    49580

    瀏覽量

    259877
  • ChatGPT
    +關(guān)注

    關(guān)注

    30

    文章

    1595

    瀏覽量

    9984

原文標(biāo)題:GPT-4多模態(tài)模型發(fā)布,對ChatGPT的升級和斷崖式領(lǐng)先

文章出處:【微信號:AI_Architect,微信公眾號:智能計算芯世界】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    亞馬遜云科技上線Amazon Nova模態(tài)嵌入模型

    Embeddings模態(tài)嵌入模型現(xiàn)已在Amazon Bedrock上線,這是一款專為Agentic RAG與語義搜索應(yīng)用打造的頂尖模態(tài)
    的頭像 發(fā)表于 10-29 17:15 ?43次閱讀
    亞馬遜云科技上線Amazon Nova<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>嵌入<b class='flag-5'>模型</b>

    商湯日日新V6.5模態(tài)模型登頂全球權(quán)威榜單

    Pro)模態(tài)模型以82.2的綜合成績登頂榜首,領(lǐng)先Gemini 2.5 Pro以及GPT-5等國際頂尖
    的頭像 發(fā)表于 09-10 09:55 ?347次閱讀

    OpenAI或在周五凌晨發(fā)布GPT-5 OpenAI以低價向美國政府提供ChatGPT

    外界一直在期待的OpenAI新一代大語言模型GPT-5或?qū)?b class='flag-5'>發(fā)布。據(jù)外媒的報道,GPT-5很可能在周五凌晨發(fā)布。這是OpenAI在2023年的
    的頭像 發(fā)表于 08-07 14:13 ?6520次閱讀

    “端云+模態(tài)”新范式:《移遠(yuǎn)通信AI大模型技術(shù)方案白皮書》正式發(fā)布

    7月28日,移遠(yuǎn)通信聯(lián)合智次方研究院正式發(fā)布《AI大模型技術(shù)方案白皮書》(以下簡稱“白皮書”)。這份白皮書系統(tǒng)梳理了AI大模型的技術(shù)特點、產(chǎn)業(yè)發(fā)展態(tài)勢與多元應(yīng)用場景,以及移遠(yuǎn)通信“端云+
    的頭像 發(fā)表于 07-28 13:08 ?826次閱讀
    “端云+<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>”新范式:《移遠(yuǎn)通信AI大<b class='flag-5'>模型</b>技術(shù)方案白皮書》正式<b class='flag-5'>發(fā)布</b>

    潤和軟件榮登2025模態(tài)AI大模型排行榜單

    近日,《互聯(lián)網(wǎng)周刊》聯(lián)合eNET研究院、德本咨詢、中國社會科學(xué)院信息化研究中心共同發(fā)布了“2025模態(tài)AI大模型”榜單。江蘇潤和軟件股份有限公司(以下簡稱“潤和軟件”)自主研發(fā)的“潤
    的頭像 發(fā)表于 06-25 14:37 ?1315次閱讀

    模態(tài)感知+豆包大模型!家居端側(cè)智能升級

    的關(guān)鍵力量。星宸科技與豆包大模型的合作,將這一技術(shù)趨勢落實到實際應(yīng)用場景中,在智能家居、可穿戴設(shè)備以及連鎖店等領(lǐng)域引發(fā)了深刻變革。 ? 智能家居升級 ? 陳立敬指出:“智能家居2.0需要大模型大腦”。在智能家居領(lǐng)域,
    的頭像 發(fā)表于 06-21 00:06 ?6475次閱讀
    <b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>感知+豆包大<b class='flag-5'>模型</b>!家居端側(cè)智能<b class='flag-5'>升級</b>

    商湯日日新SenseNova融合模態(tài)模型 國內(nèi)首家獲得最高評級的大模型

    近日,中國信息通信研究院(以下簡稱“中國信通院”)完成可信AI模態(tài)模型首輪評估。 商湯日日新SenseNova融合模態(tài)模型在所有
    的頭像 發(fā)表于 06-11 11:57 ?1059次閱讀

    愛芯通元NPU適配Qwen2.5-VL-3B視覺模態(tài)模型

    熟悉愛芯通元NPU的網(wǎng)友很清楚,從去年開始我們在端側(cè)模態(tài)模型適配上一直處于主動緊跟的節(jié)奏。先后適配了國內(nèi)最早開源的模態(tài)大模MiniCP
    的頭像 發(fā)表于 04-21 10:56 ?2461次閱讀
    愛芯通元NPU適配Qwen2.5-VL-3B視覺<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>

    海康威視發(fā)布模態(tài)模型AI融合巡檢超腦

    基于??涤^瀾大模型技術(shù)體系,??低曂瞥鲂乱淮?b class='flag-5'>多模態(tài)模型AI融合巡檢超腦,全面升級人、車、行為、事件等算法,為行業(yè)帶來全新的
    的頭像 發(fā)表于 04-17 17:12 ?1202次閱讀

    ??低?b class='flag-5'>發(fā)布模態(tài)模型文搜存儲系列產(chǎn)品

    模態(tài)模型為安防行業(yè)帶來重大技術(shù)革新,基于觀瀾大模型技術(shù)體系,??低晫⒋髤?shù)量、大樣本量的圖文模態(tài)
    的頭像 發(fā)表于 02-18 10:33 ?935次閱讀

    OpenAI簡化大模型選擇:薩姆·奧特曼制定路線圖

    前的技術(shù)環(huán)境下,大模型被廣泛應(yīng)用于各種聊天機(jī)器人中,其中OpenAI的ChatGPT就是一個典型的例子。然而,對于大多數(shù)用戶來說,選擇最適合自己需求的AI模型卻并非易事。OpenAI目前提供了多種
    的頭像 發(fā)表于 02-18 09:12 ?682次閱讀

    ChatGPT Plus 2025新功能搶先看:如何訂閱與使用全攻略

    的交互 ChatGPT Plus作為付費訂閱服務(wù),提供了一系列增強(qiáng)功能和優(yōu)勢,讓用戶體驗更上一層樓: 更強(qiáng)模型驅(qū)動 (GPT-4及更高版本): ?訂閱用戶可訪問性能更強(qiáng)、回答更準(zhǔn)確、對話能力更復(fù)雜的
    的頭像 發(fā)表于 02-13 19:59 ?1881次閱讀

    OpenAI即將發(fā)布GPT-4.5與GPT-5

    ,GPT-4.5將在未來幾周內(nèi)率先亮相,它將是OpenAI通用GPT-4模型的繼承者。這款新的算法在技術(shù)上進(jìn)行了諸多優(yōu)化和升級,旨在為用戶提供更加精準(zhǔn)、高效的AI服務(wù)。 而在
    的頭像 發(fā)表于 02-13 13:43 ?938次閱讀

    一文說清楚什么是AI大模型

    DALL-E)、科學(xué)計算模型(如 AlphaFold)以及模態(tài)模型。這些模型通過海量數(shù)據(jù)訓(xùn)練,展現(xiàn)出高度的泛用性。 比較有代表性的大語言
    的頭像 發(fā)表于 01-02 09:53 ?3661次閱讀
    一文說清楚什么是AI大<b class='flag-5'>模型</b>

    商湯日日新模態(tài)模型權(quán)威評測第一

    剛剛,商湯科技日日新SenseNova模態(tài)模型,在權(quán)威綜合評測權(quán)威平臺OpenCompass的模態(tài)評測中取得榜單第一。
    的頭像 發(fā)表于 12-20 10:39 ?1408次閱讀