你有沒有想過,人類真的能做出完全隨機(jī)的選擇嗎?答案可能出乎你的意料。事實(shí)上,人類天生就不擅長“隨機(jī)”,我們總能在看似無序的事物中發(fā)現(xiàn)規(guī)律,甚至在本該隨機(jī)的場景中創(chuàng)造出模式。這種“偽隨機(jī)”行為,其實(shí)是一種獨(dú)特的人類特質(zhì)。最近,來自康奈爾大學(xué)探討了大語言模型(LLMs)在隨機(jī)性方面的表現(xiàn)。他們通過一個(gè)經(jīng)典的實(shí)驗(yàn)——生成二進(jìn)制隨機(jī)序列,來觀察這些模型是否能像人類一樣“不隨機(jī)”,或者是否能真正實(shí)現(xiàn)“隨機(jī)”。
研究結(jié)果令人驚訝。研究者發(fā)現(xiàn),GPT-4和Llama-3在生成隨機(jī)序列時(shí),不僅表現(xiàn)出人類的偏差,甚至還加劇了這些偏差。
真隨機(jī) 與 偽隨機(jī)
人類有一種奇妙的天賦——發(fā)現(xiàn)規(guī)律。我們總能在生活中找到各種模式:在咖啡的奶泡中看到人臉,在星空里描繪出星座,甚至因?yàn)橥洿┬疫\(yùn)衫而覺得勒布朗·詹姆斯投籃不中是自己的錯(cuò)。
然而,這種對(duì)規(guī)律的敏感也讓我們在面對(duì)“隨機(jī)性”時(shí)變得格外笨拙。比如,當(dāng)你讓一個(gè)人隨機(jī)選擇一個(gè)1到10之間的數(shù)字時(shí),他們大概率會(huì)選擇7;或者讓他們在腦海中拋硬幣,結(jié)果多半是正面。這些看似隨機(jī)的選擇,其實(shí)背后隱藏著可預(yù)測的規(guī)律。
拋硬幣實(shí)驗(yàn)背后的秘密
從20世紀(jì)初開始,人類對(duì)隨機(jī)性的研究就從未停止。早在1913年,F(xiàn)ernberger就指出,人類生成隨機(jī)序列的行為是一個(gè)復(fù)雜而迷人的課題。此后,無數(shù)研究發(fā)現(xiàn),人類生成的隨機(jī)序列與真正的隨機(jī)序列有著顯著的差異。
我們通過一個(gè)經(jīng)典的行為科學(xué)實(shí)驗(yàn)來研究這一問題:讓人類或機(jī)器生成一系列隨機(jī)結(jié)果,比如拋硬幣的序列,然后將這些序列與真正的隨機(jī)序列進(jìn)行比較。簡單來說,就是看看這些序列與“純粹的隨機(jī)性”有多大差距。
虛擬硬幣實(shí)驗(yàn)
▎溫度參數(shù):AI的“隨機(jī)性開關(guān)”
與人類不同,大語言模型有一個(gè)關(guān)鍵參數(shù)——溫度(temperature)。溫度決定了模型輸出的多樣性:溫度越低,輸出越一致;溫度越高,輸出越隨機(jī)、越多樣化。然而,當(dāng)溫度過高(比如超過1.5)時(shí),模型的輸出可能會(huì)變得混亂,甚至無法從中解析出硬幣的正反面。因此,我們的實(shí)驗(yàn)溫度范圍設(shè)定在0到1.5之間。

當(dāng)我們讓AI連續(xù)拋20次硬幣時(shí),結(jié)果同樣有趣。實(shí)驗(yàn)發(fā)現(xiàn),所有模型在序列的第一次拋硬幣中都傾向于選擇“正面”,這與人類的行為高度一致。無論溫度如何變化,這種“正面優(yōu)先”的傾向始終存在。這不僅揭示了AI在隨機(jī)性任務(wù)中繼承了人類的偏差,還表明這些偏差在某些情況下可能被進(jìn)一步放大。
▎AI的“第一印象”偏差
在我們的實(shí)驗(yàn)中,超過88%的AI生成的硬幣序列以“正面”開始,這一比例遠(yuǎn)遠(yuǎn)高于人類數(shù)據(jù)。這表明AI在“第一印象”上繼承了人類的偏差,并且表現(xiàn)得更加明顯。尤其是Llama-3,它的偏差比GPT系列模型更強(qiáng)。GPT-4和GPT-3.5之間也存在差異,GPT-4通常表現(xiàn)出更少的偏差。

這種“第一印象”偏差不僅出現(xiàn)在硬幣的正反面選擇中,還出現(xiàn)在其他二元選擇中,比如“真/假”或“A/B”。這可能暗示了語言中的“固定二元組”對(duì)AI的決策產(chǎn)生了影響。
▎AI的“平衡”偏差
在實(shí)驗(yàn)中,GPT-4和Llama-3生成的序列中,正面和反面的比例往往比隨機(jī)分布更接近50%,甚至比人類生成的序列還要“平衡”。例如,在8次拋硬幣的序列中,它們平均會(huì)有4次正面,這與人類的行為非常相似。不過,Llama-3在低溫時(shí)表現(xiàn)出輕微的正面偏好,而GPT-3.5在低溫時(shí)則表現(xiàn)出強(qiáng)烈的反面偏好,但在高溫時(shí)會(huì)逐漸接近人類的分布。

▎連續(xù)序列與N-gram模式人類在生成隨機(jī)序列時(shí),往往會(huì)過度切換正面和反面,認(rèn)為這樣看起來更“隨機(jī)”。研究表明,人類序列的交替比例通常為60%,而真正的隨機(jī)序列應(yīng)該是50%。在AI實(shí)驗(yàn)中,這種“過度切換”的傾向被進(jìn)一步放大。例如,在8次拋硬幣的序列中,理論上應(yīng)該平均有3.5次交替,但AI模型的交替次數(shù)普遍高于這個(gè)值。GPT-4在低溫時(shí)幾乎總是生成“正反交替”的序列,而Llama-3則傾向于生成“正反正反……”或“正反正正……”的模式。

本文轉(zhuǎn)自:Coggle數(shù)據(jù)科學(xué)
-
AI
+關(guān)注
關(guān)注
88文章
37282瀏覽量
292248 -
語言模型
+關(guān)注
關(guān)注
0文章
567瀏覽量
11224 -
LLM
+關(guān)注
關(guān)注
1文章
339瀏覽量
1212
發(fā)布評(píng)論請先 登錄
QSPI PSRAM偽靜態(tài)隨機(jī)存儲(chǔ)器選型攻略
【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片到AGI芯片
【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI的科學(xué)應(yīng)用
【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片的需求和挑戰(zhàn)
真隨機(jī)數(shù)和偽隨機(jī)數(shù)的區(qū)別
【Sipeed MaixCAM Pro開發(fā)板試用體驗(yàn)】基于MaixCAM-Pro的AI生成圖像鑒別系統(tǒng)
測量誤差溯源:系統(tǒng)誤差與隨機(jī)誤差的數(shù)學(xué)建模與分離方法
藍(lán)牙隨機(jī)化RPA更新的重要性和工作原理
請問如何設(shè)置藍(lán)牙靜態(tài)隨機(jī)地址?
labview怎么輸出不重復(fù)的整數(shù)隨機(jī)數(shù)
隨機(jī)化在PCIe IDE驗(yàn)證中的重要性
問天量子和方寸微電子聯(lián)合發(fā)布量子隨機(jī)數(shù)芯片
LuatOS開發(fā)之4G模組隨機(jī)數(shù)(random)|實(shí)戰(zhàn)指南
解析Air780E模組LuatOS開發(fā)的隨機(jī)數(shù)(random) 示例篇

AI的“隨機(jī)性”挑戰(zhàn):它們比人類更“不隨機(jī)”?
評(píng)論