別再怕圖片搜索結(jié)果牛頭不對馬嘴了,你可以試試這個 精準(zhǔn)圖片搜索,來自 OpenAI最新的技術(shù) CLIP。
只需一句 “大白話”描述,便能給出想要的圖片。
例如輸入:
The word love written on the wall
就會得到這樣的結(jié)果:
可以說是相當(dāng)?shù)?精準(zhǔn)了!這就是今天在Reddit上爆火的一個項目。
這個項目利用到的,便是 OpenAI前不久頻頻刷屏的DALL·E 中的核心模塊—— CLIP,一個負(fù)責(zé)重排序 (rerank)的模型。
這個項目使用谷歌Colab Notebook,而且在線、免費,包含200萬圖片數(shù)據(jù)集,最重要的是效果還非常的精準(zhǔn)。
不禁引得網(wǎng)友直呼“ Amazing”。
簡單幾步,“大白話”在線精準(zhǔn)搜圖
這個項目之所以如此火爆, 操作簡單是很重要的一個原因之一。
首先要做的,就是點開該項目在Colab Notebook中的地址 (見文末鏈接),登陸自己的賬號。
至于環(huán)境配置、包或庫的調(diào)用,這個項目非常貼心的已經(jīng)做好了,只需要依次點擊cell左側(cè)的小三角,等待運行完成即可。
最后,來到包含如下代碼的cell:
search_query = “Two dogs playing inthe snow”
點擊運行這個cell,便可得到搜索圖片的結(jié)果,例如:
當(dāng)然,這個程序似乎很懂人,若是輸入“當(dāng)你的代碼跑通時的情緒”:
The feeling when your program finallyworks
得到的結(jié)果,和正常人想象中的應(yīng)該是一致的:
為什么CLIP搜圖能如此精準(zhǔn)?
OpenAI前不久推出的DALL·E,主要能實現(xiàn)的功能就是 可以按照文字描述、生成對應(yīng)圖片。
而其呈現(xiàn)給我們的最終作品,其實是它生成大量圖片中的一部分。
在中間過程中,其實也有排名、打分的帥選過程。
這部分的任務(wù),便是由 CLIP來完成:
越是它看得懂、匹配度最高的作品,分?jǐn)?shù)就會越高,排名也會越靠前。
這種結(jié)構(gòu),有點像是利用生成對抗文本,以合成圖像的 GAN。
不過,相比于利用GAN擴(kuò)大圖像分辨率、匹配圖像-文本特征等方法,CLIP則選擇了直接對輸出進(jìn)行排名。
據(jù)研究人員表示,CLIP網(wǎng)絡(luò)的 最大意義在于,它緩解了深度學(xué)習(xí)在視覺任務(wù)中,最大的兩個問題。
首先,它 降低了深度學(xué)習(xí)需要的數(shù)據(jù)標(biāo)注量。
相比于手動在ImageNet上,用文字描述1400萬張圖像,CLIP直接從網(wǎng)上已有的“文字描述圖像”數(shù)據(jù)中進(jìn)行學(xué)習(xí)。
此外,CLIP還能“身兼多職”,在各種數(shù)據(jù)集上的表現(xiàn)都很好 (包括沒見過的數(shù)據(jù)集)。
但此前的大部分視覺神經(jīng)網(wǎng)絡(luò),只能在訓(xùn)練的數(shù)據(jù)集上有不錯的表現(xiàn)。
例如,CLIP與ResNet101相比,在各項數(shù)據(jù)集上都有不錯的檢測精度,然而ResNet101在除了ImageNet以外的檢測精度上,表現(xiàn)都不太好。
具體來說,CLIP用到了零樣本學(xué)習(xí) (zero-shot learning)、自然語言理解和多模態(tài)學(xué)習(xí)等技術(shù),來完成圖像的理解。
例如,描述一只斑馬,可以用“馬的輪廓+虎的皮毛+熊貓的黑白”。這樣,網(wǎng)絡(luò)就能從沒見過的數(shù)據(jù)中,找出“斑馬”的圖像。
最后,CLIP將文本和圖像理解結(jié)合起來,預(yù)測哪些圖像,與數(shù)據(jù)集中的哪些文本能完成最好的配對。
網(wǎng)友:機(jī)器人(bot)可能不太高興
在驚嘆CLIP用“大白話”搜索圖片效果之余,一位Reddit網(wǎng)友還發(fā)現(xiàn)了一個比較有意思的搜索結(jié)果。
他在文本描述的代碼部分輸入:
What image best represents how you feel right now?
這句話在我們?nèi)祟愌壑?,?yīng)當(dāng)是詢問AI的語氣了,然后出來的圖片結(jié)果是這樣的:
還有這樣的:
嗯,看來是被“玩多了”,AI寶寶有點小脾氣了。
-
搜索
+關(guān)注
關(guān)注
0文章
70瀏覽量
16939 -
OpenAT
+關(guān)注
關(guān)注
0文章
5瀏覽量
8833 -
圖片
+關(guān)注
關(guān)注
0文章
203瀏覽量
16419 -
Clip
+關(guān)注
關(guān)注
0文章
33瀏覽量
7183 -
OpenAI
+關(guān)注
關(guān)注
9文章
1235瀏覽量
9728
發(fā)布評論請先 登錄
蘇寧搜索接口深析:全品類智能分軌如何解決 O2O 電商的搜索痛點?
按圖搜索1688商品的API接口
淘寶圖片搜索接口開發(fā)實戰(zhàn):從 CNN 特征提取到商品匹配(附避坑手冊 + 可復(fù)用代碼)
1688 多模態(tài)搜索從 0 到 1:逆向接口解析與 CLIP 特征匹配實踐
格靈深瞳三項成果獲得國際頂級學(xué)術(shù)會議認(rèn)可
無刷直流電機(jī)電流檢測新技術(shù)
揭秘Cu Clip封裝:如何助力半導(dǎo)體芯片飛躍
百度搜索與文心智能體平臺接入DeepSeek及文心大模型深度搜索
OpenAI免費開放ChatGPT搜索功能
OpenAI提交新商標(biāo)的申請
ChatGPT新增實時搜索與高級語音功能
OpenAI考慮取消AGI條款
OpenAI未來3周舉行12場新品發(fā)布會 我們能期待些什么? #OpenAI #人工智能 #AI
新品 | 可拼接燈板矩陣 Puzzle Unit & 創(chuàng)意固定套件CLIP-A/CLIP-B

精準(zhǔn)圖片搜索 OpenAI最新技術(shù) CLIP
評論