亚洲精品久久久久久久久久久,亚洲国产精品一区二区制服,亚洲精品午夜精品,国产成人精品综合在线观看,最近2019中文字幕一页二页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

GPT-4 遭投訴要求禁用,OpenAI 為何成為眾矢之的?

穎脈Imgtec ? 2023-04-14 10:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

整理 | 屠敏
出品 | CSDN(ID:CSDNnews)


ChatGPT、GPT-4 的迅速“出圈”,讓 OpenAI 一戰(zhàn)成名,外界對這家公司的關注度達到了前所未有的高度。

然而,欲戴王冠,必承其重。在如此前沿的技術(shù)到來之際,很多人將目光從技術(shù)本質(zhì)的探索延展到道德、風險評估等維度。不久之前,CSDN 也曾報道過,非營利性的 "生命的未來研究所"(Future of Life Institute)發(fā)出一封公開信,以 LLM(Large Language Model)模型對社會和人類存在不可控的風險為由,呼吁全球所有的 AI 實驗室都要暫停訓練比 GPT-4 更強大的系統(tǒng),期限為六個月。包括圖靈獎得主 Yoshua Bengio、伯克利計算機科學教授 Stuart Russell、特斯拉 CEO 埃隆·馬斯克、蘋果聯(lián)合創(chuàng)始人 Steve Wozniak 等在內(nèi)的數(shù)千名對人工智能領域關注的學者、企業(yè)家、教授都在這封公開信上簽署了自己的姓名。雖然尚未直接點名,但是眾人心中都有數(shù),能以最快速度訓練出比 GPT-4 更強大系統(tǒng)的公司屈指可數(shù),OpenAI 必在榜單的前列。所以這一封信究竟是為了阻止 OpenAI 加速前進的步伐,還是真的擔心 LLM 帶來的弊會大于利,在業(yè)界尚未有統(tǒng)一的判定之前,因為這封信引發(fā)的輿論再次發(fā)酵,形成了兩派:

  • 一派,認為 “具有人類競爭智能的人工智能系統(tǒng)會對社會和人類構(gòu)成深刻的風險”,甚至又有非營利機構(gòu)要求美國政府部門聯(lián)邦貿(mào)易委員會 FTC 出面調(diào)查 OpenAI,阻止 GPT-4 的商用;

e309c652-d832-11ed-ad0d-dac502259ad0.png

  • 另一派則認可 LLM 對社會帶來的真實改進和幫助,不能因部分人的顧慮而停止整個技術(shù)行業(yè)的發(fā)展。

那么,在兩派的爭論中,最終 LLM 的研發(fā)將何去何從?原本計劃將在今年下半年推出的 GPT-5 是否會如期?LLM 帶來的真實風險又有哪些?


支持派:停止訓練比 GPT-4 更強的模型

“只有當我們確信它們的影響是積極的并且它們的風險是可控的時候,才應該開發(fā)強大的人工智能系統(tǒng)。因此,我們呼吁所有 AI 實驗室立即暫停訓練比 GPT-4 更強大的 AI 系統(tǒng),至少 6 個月。這種暫停應該是公開的和可驗證的,并且包括所有關鍵參與者。如果不能迅速實施這種暫停,政府應介入并暫?!埃_信寫道。同時,其指出,「人工智能實驗室和獨立專家應利用這次暫停期,共同制定和實施一套先進的人工智能設計和開發(fā)的共享安全協(xié)議,并由獨立的外部專家進行嚴格的審計和監(jiān)督」。當然,信中也澄清說,“這并不意味著總體上暫停 AI 開發(fā),只是從越來越大且不可預測的黑盒模型的危險競賽中退后一步?!迸c此同時,據(jù)外媒 vice 報道,本次公開信發(fā)起者、圖靈獎得主 Yoshua Bengio 表示,“民主價值觀與這些工具的開發(fā)方式之間存在沖突”。 麻省理工學院 NSF AI 人工智能與基礎交互研究所(IAIFI)物理學教授、未來生命研究所所長 Max Tegmark 認為,任由 AI 大模型繼續(xù)訓練下去,最壞的情況是人類將逐漸失去對文明越來越多的控制權(quán)。他表示,當前的風險是“我們失去了對科技公司中一群未經(jīng)選舉的人的控制,他們獲得了巨大的影響力?!?/p>

事實上,微軟、Google 等大型科技公司之間早已拉起 AI 軍備競賽,他們在過去的一年里發(fā)布了很多新的人工智能產(chǎn)品。

不過,這種頻繁的發(fā)布節(jié)奏引起了公憤。繼公開信之后,就在昨日,另一家非營利性研究機構(gòu)人工智能和數(shù)字政策中心(Center for AI and Digital Policy,CAIDP)將狀告到了美國政府部門。他們要求聯(lián)邦貿(mào)易委員會(簡稱 FTC)調(diào)查 OpenAI,聲稱這家新貴公司發(fā)布了 GPT-4,違反了商業(yè)法,同時他們認為該產(chǎn)品具有欺騙性并將人們置于危險之中。CAIDP 表示,"FTC 已經(jīng)宣布,人工智能的使用應該是'透明的、可解釋的、公平的、有經(jīng)驗的,同時促進問責制',不過 OpenAI 推出了一個有偏見、有欺騙性、對隱私和公共安全有風險的產(chǎn)品?,F(xiàn)在是 FTC 采取行動的時候了?!彼麄冞€批評了 OpenAI 在其模型和訓練數(shù)據(jù)方面沒有實現(xiàn)透明。CAIDP 也敦促 FTC 對 OpenAI 展開調(diào)查,要求禁止 OpenAI 所有基于 GPT 產(chǎn)品的進一步商業(yè)部署,對其技術(shù)進行獨立評估,并確保其符合聯(lián)邦貿(mào)易委員會的規(guī)則,才能重新上市。


反對派:不能停止未來 GPT-5 以及更強模型的訓練

雖然 OpenAI 自身也承認 GPT-4 并不完美,仍然會對事實驗證的問題產(chǎn)生錯亂感,也會犯一些推理錯誤,還偶爾過度自信,甚至連 OpenAI CEO Sam Altman 在接受外媒采訪時也曾表示過,公司對人工智能的潛力感到“有點害怕”。不過,Sam Altman 表示,這是“好事”,人工智能可能會取代許多工作,但它也可能會帶來“更好的工作”。而對于這封公開信的呼吁,諸多 AI 專家持反對意見。前谷歌大腦成員、在線教育平臺 Coursera 創(chuàng)始人吳恩達連發(fā)四條推文,強烈反對「暫停計劃」。他表示:呼吁在 6 個月內(nèi)暫停訓練比 GPT-4 更強的模型是一個可怕的想法。我在教育、醫(yī)療、食品......方面看到了許多新的應用,這將幫助許多人。改進 GPT-4 將是有實質(zhì)價值的。讓我們平衡一下人工智能正在創(chuàng)造的巨大價值與現(xiàn)實的風險。

除非政府介入,否則沒有現(xiàn)實的方法來實施暫停令,阻止所有團隊擴大 LLM 的規(guī)模。不過,讓政府來暫停他們不了解的新興技術(shù)是反競爭的,樹立了一個可怕的先例,是糟糕的創(chuàng)新政策。

負責任的人工智固然重要,不過,人工智能也有風險。媒體普遍認為,人工智能公司正在瘋狂地輸出不安全的代碼,這不是事實。絕大多數(shù)(可悲的是,不是所有)人工智能團隊都在認真對待負責任的人工智能和安全研究。6 個月的暫停期并不是一個實用的建議。為了促進人工智能的安全,圍繞透明度和審計的法規(guī)將更加實用,并產(chǎn)生更大的影響。在推動技術(shù)發(fā)展的同時,讓我們也對安全進行更多的投資,而不是扼殺進步。

也有人工智能專家批評這封信進一步推動了“人工智能炒作”周期,而不是直接列出或呼吁針對當今 LLM 存在的風險采取具體的行動。
華盛頓大學語言學系教授、公開信中引用的第一篇論文的共同作者 Emily M. Bender 在推特上表示,「這封公開信 "摻雜了#Aihype"」,信中濫用了她的研究。公開信指出,"正如大量研究表明的那樣,具有人類競爭智能的人工智能系統(tǒng)會對社會和人類構(gòu)成深刻的風險。"

不過,Bender 反駁說,"我們在 2020 年底寫了一篇論文(《隨機鸚鵡》,2021年發(fā)表),指出這種不考慮風險就一頭扎進越來越大的語言模型的做法是一件壞事。但風險和危害從來都不是關于'太強大的人工智能'本身,相反:它們是關于權(quán)力集中在人的手中,關于壓迫制度的再現(xiàn),關于對信息生態(tài)系統(tǒng)的損害,以及關于對自然生態(tài)系統(tǒng)的損害(通過對能源資源的暴殄天物)。"

Hugging Face 的研究科學家兼氣候負責人 Sasha Luccioni 表示,“這(公開信)本質(zhì)上是誤導:讓每個人都注意到 LLM 的假設權(quán)力和危害,并提出一種(非常模糊和無效的)解決方法,而不是此時此地正確看待風險并嘗試解決這些問題——例如,在 LLM 出現(xiàn)時,可以要求相關企業(yè)對 LLM 的訓練數(shù)據(jù)和能力實行更高的透明度,或有關何時何地可以使用它們進行立法?!?/p>


GPT-4 以及后續(xù)更強的大模型為何成為眾矢之的?

截至目前,OpenAI 聯(lián)合創(chuàng)始人 Greg Brockman 倒是發(fā)了幾條推文,聲明了 GPT-4 模型的進步與立場。他表示,”在現(xiàn)實世界的對抗壓力下部署 GPT-4 是對實際 AI 對齊的一次偉大實踐。雖然剛剛開始,但我們對迄今為止所取得的一致程度備受鼓舞(以及我們?yōu)楦纳茊栴}而不斷成熟的工程流程)?!癎reg Brockman 說,可以通過一個例子觀察到,模型在如此廣泛的棘手或?qū)剐栽掝}中的良好行為,大部分來自于模型已經(jīng)概括了人類導師的概念,即成為一個有幫助的人工智能助手。「在 GPT-3 中,它沒有辦法控制模型的行為。現(xiàn)在,我們選擇一組問題(例如,模型在錯誤的答案上頻率非常高——這曾經(jīng)是一個巨大的問題),可以建立評估,收集數(shù)據(jù),每周重新訓練模型,并進行部署。任何人都可以測試我們是否已經(jīng)改進。但是對齊 GPT-4 只是其中一個環(huán)節(jié),而不是終點。這已經(jīng)實現(xiàn)了很大的進步(與早期對 GPT-3 的抱怨相比),但需要進一步擴展到人類甚至無法判斷輸出的問題?!?/p>

其實,在 OpenAI 官方博客上,該公司也一直強調(diào),AI 需要對齊,「對齊研究旨在使人工智能(AGI)與人類價值觀保持一致并遵循人類意圖」。不過,OpenAI 的發(fā)聲并未獲得一些激進派的認可,而 OpenAI 之所以深陷輿論漩渦,或有兩方面的原因:一是 LLM 技術(shù)發(fā)展速度超出了很多人的意料,其中相關的法律法規(guī)、道德與使用等規(guī)范制度還存在很大的缺失。正如早些時候,Deepmind 研究團隊在借鑒了計算機科學、語言學和社會科學的多學科文獻基礎上發(fā)布的《語言模型危害的倫理和社會風險》論文中寫道的那樣,LM 會存在歧視、仇恨言論和排斥;信息泄露;虛假信息;惡意使用;人機交互;環(huán)境和社會經(jīng)濟等多重危害。因此,如何降低這些潛在危害,作為行業(yè)領頭羊的 OpenAI 必須要弄清楚,因為它的很多動作也是后來者參考的目標。然而,現(xiàn)實來看,這也并不是 OpenAI 公司一家所需要考慮的事情,而是需要 AI 的所有參與者共同來制定。二是 OpenAI 樹大招風,尤其是 GPT-4 不透明性引發(fā)了很多人的不滿。自 ChatGPT、GPT-4 發(fā)布以來,已經(jīng)很多人批評過「OpenAI 不再 Open」了。不久前,Nomic AI 信息設計副總裁 Ben Schmidt 在推特上直指,OpenAI 在發(fā)布 GPT-4 技術(shù)的 98 頁論文中,絲毫沒有提及關于訓練集內(nèi)容的任何信息。

也有網(wǎng)友稱,OpenAI 正在”假裝“開放。

不過,對于 LLM 究竟是應該開源還是閉源,又是一個引發(fā)爭議的問題。針對這一點,據(jù)外媒 The Verge 報道,OpenAI 首席科學家、聯(lián)合創(chuàng)始人 Ilya Sutskever 在接受采訪時也曾回應過,「OpenAI 不分享關于 GPT-4 的更多信息的原因是“不言而喻的”——害怕競爭和對安全的擔憂。」Sutskever 表示,“在競爭格局方面--外面的競爭很激烈。GPT-4 的開發(fā)并不容易。幾乎 OpenAI 的所有人在一起花了很長時間才做出了這個東西,而且(目前)有很多很多公司都想做同樣的事情。安全方面,我想說,還沒有競爭方面那么突出。但它將會改變,基本上是這樣的。這些模型非常強大,而且會變得越來越強大。在某種程度上,如果有人想的話,很容易用這些模型造成很大的傷害。隨著(模型)能力的增強,你不想透露它們是有道理的。”雖然從商業(yè)的角度,OpenAI 不公開大模型架構(gòu)(包括模型大小)、硬件、訓練計算、數(shù)據(jù)集構(gòu)建、訓練方法等細節(jié)合乎情理,但是也有人表示,不公開訓練數(shù)據(jù),很難知道該系統(tǒng)可以在哪里安全使用并提出修復方案,不利于大模型的研究。為此,你是否支持暫停更強大模型的訓練?你認為大模型是開源好,還是閉源好?

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    88

    文章

    37304

    瀏覽量

    292295
  • 人工智能
    +關注

    關注

    1813

    文章

    49551

    瀏覽量

    259558
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    OpenAI或在周五凌晨發(fā)布GPT-5 OpenAI以低價向美國政府提供ChatGPT

    外界一直在期待的OpenAI新一代大語言模型GPT-5或?qū)l(fā)布。據(jù)外媒的報道,GPT-5很可能在周五凌晨發(fā)布。這是OpenAI在2023年的3月份推出自然語言處理模型
    的頭像 發(fā)表于 08-07 14:13 ?6180次閱讀

    OpenAI發(fā)布2款開源模型

    o4-mini水平,并且能在高端筆記本上運行。而且還有一個更小的版本,可以在智能手機上應用。 據(jù)悉;OpenAI 此次開源的gpt-oss-120b 總參數(shù)量為 1170 億,激活參數(shù)為 51 億,能夠在
    的頭像 發(fā)表于 08-06 14:25 ?803次閱讀

    GPT-5即將面市 性能遠超GPT-4

    行業(yè)芯事
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2025年06月04日 13:38:23

    OpenAI簡化大模型選擇:薩姆·奧特曼制定路線圖

    前的技術(shù)環(huán)境下,大模型被廣泛應用于各種聊天機器人中,其中OpenAI的ChatGPT就是一個典型的例子。然而,對于大多數(shù)用戶來說,選擇最適合自己需求的AI模型卻并非易事。OpenAI目前提供了多種模型供用戶選擇,其中包括能夠快速響應并提供答案的模型,如
    的頭像 發(fā)表于 02-18 09:12 ?673次閱讀

    OpenAI宣布GPT 4o升智計劃

    近日,全球領先的人工智能公司OpenAI迎來了一項重要宣布。OpenAI的首席執(zhí)行官Sam Altman正式揭曉了GPT 4o的升智計劃,這一消息立即引起了業(yè)界的廣泛關注。 據(jù)Sam
    的頭像 發(fā)表于 02-17 14:24 ?796次閱讀

    OpenAI即將發(fā)布GPT-4.5與GPT-5

    GPT-4.5將在未來幾周內(nèi)率先亮相,它將是OpenAI通用GPT-4模型的繼承者。這款新的算法在技術(shù)上進行了諸多優(yōu)化和升級,旨在為用戶提供更加精準、高效的AI服務。 而在GPT-4
    的頭像 發(fā)表于 02-13 13:43 ?928次閱讀

    今日看點丨OpenAI將發(fā)布新的GPT-4.5模型;三星西安工廠將升級286層NAND閃存工藝

    1. OpenAI 將發(fā)布新的GPT-4.5 模型 ? OpenAI首席執(zhí)行官阿爾特曼周三表示,該公司內(nèi)部稱為Orion的GPT-4.5模型將在“幾周內(nèi)”推出。外媒11月報道稱,Ori
    發(fā)表于 02-13 11:22 ?641次閱讀

    OpenAI即將推出GPT-5模型

    OpenAI首席執(zhí)行官奧爾特曼近日宣布了一項重要消息:OpenAI將在今年未來幾個月內(nèi)推出全新的GPT-5模型。這一消息引起了業(yè)界的廣泛關注和期待。 據(jù)了解,GPT-5模型將整合
    的頭像 發(fā)表于 02-13 11:21 ?827次閱讀

    OpenAI CEO預告GPT-4.5及GPT-5未來規(guī)劃

    近日,OpenAI的首席執(zhí)行官薩姆·奧爾特曼(Sam Altman)放出了一則令人矚目的更新預告,透露了GPT-4.5和GPT-5的未來規(guī)劃。 據(jù)奧爾特曼透露,OpenAI將在接下來的
    的頭像 發(fā)表于 02-13 10:02 ?659次閱讀

    OpenAI將發(fā)布更智能GPT模型及AI智能體工具

    OpenAI近日透露了其未來發(fā)展的重要動向。據(jù)OpenAI首席產(chǎn)品官凱文·維爾(Kevin Weil)介紹,公司計劃推出更智能的GPT o3模型,并首次亮相AI智能體工具,這將使ChatGPT能夠在計算機上執(zhí)行實際操作,進一步拓
    的頭像 發(fā)表于 01-24 13:54 ?715次閱讀

    OpenAI報告GPT-4o及4o-mini模型性能下降,正緊急調(diào)查

    近日,全球領先的AI研究機構(gòu)OpenAI發(fā)布了一份事故報告,引起了業(yè)界的廣泛關注。報告中指出,OpenAI目前正面臨GPT-4o和4o-mini這兩款重要模型性能下降的問題。 據(jù)
    的頭像 發(fā)表于 01-23 10:22 ?1039次閱讀

    OpenAIGPT-4o及4o-mini模型性能下降,正展開調(diào)查

    近期,OpenAI發(fā)布了一份事故報告,指出其GPT-4o及4o-mini模型遭遇了性能下降的問題。這一消息引起了業(yè)界的廣泛關注和討論。 據(jù)OpenAI官方透露,他們目前正在積極調(diào)查這一
    的頭像 發(fā)表于 01-21 10:34 ?848次閱讀

    OpenAI GPT-5開發(fā)滯后:訓練成本高昂

    近日,據(jù)最新消息,OpenAI在推進其備受期待的下一代旗艦模型GPT-5的開發(fā)進程上遇到了困難。由于計算成本高昂且高質(zhì)量訓練數(shù)據(jù)稀缺,GPT-5的開發(fā)已經(jīng)落后于原定計劃半年之久。 據(jù)悉,Ope
    的頭像 發(fā)表于 12-23 11:04 ?1314次閱讀

    Meta要求阻止OpenAI營利化轉(zhuǎn)變

    近日,據(jù)外媒報道,Meta已向司法部門提出投訴要求阻止OpenAI從非營利性組織轉(zhuǎn)變?yōu)闋I利性公司。這一舉動引發(fā)了廣泛關注,繼特斯拉創(chuàng)始人馬斯克之后,Meta也成為了反對
    的頭像 發(fā)表于 12-17 09:57 ?629次閱讀

    OpenAI推遲GPT-5發(fā)布,專注草莓計劃GPT-o1及AI代理愿景

    形成了有力競爭。然而,近日OpenAI的首席執(zhí)行官Sam Altman卻透露了一個出人意料的消息:盡管公司計劃在年底前推出多項重要更新,但備受期待的GPT-5并不會在今年面世。
    的頭像 發(fā)表于 11-05 16:57 ?1092次閱讀