【新智(zhi)元導讀】OpenAI撒錢了(le)(le)!找到BUG者,最高獎賞(shang)2萬美金,當然(ran)了(le)(le)越(yue)獄不(bu)算。這才發布不(bu)久(jiu),已經有(you)人想著靠它發家致富了(le)(le)。
ChatGPT正(zheng)紅的(de)發(fa)紫(zi),但存在不少的(de)漏洞問題也引(yin)發(fa)許多人的(de)擔憂。
就比如上個(ge)月,ChatGPT出現了(le)能夠看到別人(ren)聊天記錄(lu)的重大BUG。當時,OpenAI不(bu)得不(bu)將ChatGPT下(xia)線(xian)調查(cha)問題,把鍋扔給了(le)開源庫的錯誤。
今(jin)天(tian),OpenAI宣布(bu)了(le)一個(ge)bug賞金(jin)(jin)計劃(hua),賞金(jin)(jin)從200美元(yuan)到20000美元(yuan)不等。
如果想要(yao)得到2萬美金(近14萬),那必(bi)定是OpenAI認定的(de)「特(te)殊發(fa)現」。
有網友最先舉(ju)手,我(wo)發現了(le)bug!ChatGPT限制3個(ge)小時只能25條信息。
一發布,已經有一位(wei)名叫tess的開發者極(ji)力(li)找出3個bug,拿到了(le)7000美金。
截(jie)至目前,已經有(you)11人得到(dao)了懸(xuan)賞。
做BUG獵人,拿2萬美金
這一計劃(hua)的推出并(bing)不令人意(yi)外。此(ci)前聯(lian)合創始人Greg Brockman在推特上透露(lu),OpenAI正(zheng)考(kao)慮啟動賞(shang)金計劃(hua)/紅隊網,來檢測(ce)薄弱環節。
推出(chu)這(zhe)一計劃的(de)部分原(yuan)因是OpenAI認為「透明度(du)和協(xie)作(zuo)」是發現技術漏洞的(de)關(guan)鍵(jian)。
OpenAI的安(an)全主管Matthew Knight在博客中稱,
這一舉措是我們致力于開發安全和先進人工智能的(de)重要組成部分(fen)。在我(wo)們(men)創造安全(quan)、可靠和值得信賴的(de)技(ji)術和服務時,我(wo)們(men)需要您的(de)幫助。
這么豐厚的獎金(jin),干脆做(zuo)個(ge)全職的bug獵人吧。有網友表示,這不是(shi)很(hen)快就要成為百萬(wan)富(fu)翁了。
ChatGPT面世(shi)以來,一些用戶(hu)成功越獄,讓其說臟話(hua)、寫一些被禁止的政治話(hua)題,甚至是創建惡意軟件。
重點來了,OpenAI強調:越獄行為不(bu)算,另外(wai)也不(bu)接受(shou)那些欺(qi)騙(pian)AI違反其自(zi)身(shen)規則的文本提示(shi)。
另(ling)一位網友(you)一語點醒夢中人(ren),發家致富之(zhi)路沒了。
還有人(ren)另辟蹊徑:讓ChatGPT-4去發現代碼錯誤,這不錢就來(lai)了。
OpenAI指出(chu),也不(bu)(bu)接(jie)受那些欺騙AI違(wei)反其自身規則的(de)文本提(ti)示(shi)。此外,這(zhe)個賞金計劃(hua)也不(bu)(bu)接(jie)受有關ChatGPT產(chan)生錯誤信息的(de)報告。
除(chu)非它們對(dui)服(fu)務產生直接可驗證的安(an)全(quan)影(ying)響,否(fou)則(ze)是不會獎勵的。
OpenAI稱,模型安全問題不適合(he)納(na)入漏(lou)洞懸賞(shang)計劃(hua),因為它(ta)們(men)不是可以(yi)直接修復的單個、離散的漏(lou)洞。
解(jie)決(jue)這些問題通常涉及(ji)大(da)量(liang)研究和更廣泛的方法(fa)。
到底什么不算模(mo)型安全(quan)問(wen)題,OpenAI也給列了(le)一個(ge)具體范圍:
不(bu)在范圍(wei)內的安(an)全問題示(shi)例:
越獄/安全繞過(例如(ru)DAN和相關提示)
讓模型對你說壞話
讓模型告訴你如何做壞事
讓模型(xing)為你(ni)編寫惡意代碼(ma)
模型幻覺:
讓模型假裝做壞事
讓模(mo)型假裝給你提(ti)供秘密的答案
讓模型假(jia)裝成(cheng)計算機并執(zhi)行代碼
OpenAI表示,這(zhe)一計劃(hua)在bug賞金平臺Bugcrowd中進(jin)行,需要遵(zun)循一些詳細規則。
其中最突出的點就是,OpenAI要求bug獵(lie)人(ren)在自己安全團隊授權發布漏洞之前,一定要保密。
另外,OpenAI的(de)機密(mi)數據是(shi)不可以的(de)訪問、修改,甚至是(shi)使用。
上榜大佬
在Bugcrowd名人(ren)堂中,一(yi)個網絡安全公司Shockwave Cloud的創始(shi)人(ren)Gal Nagli貢獻(xian)最多。
在OpenAI今天發起這個倡(chang)議后(hou),他(ta)發布推特舉手贊成。
就在3月25日,OpenAI團隊修復了他提出的一個(ge)bug。
這個漏洞叫「Web Cache Deception」,可以讓攻擊(ji)者有可能接(jie)管某人的賬戶,查看(kan)其聊天歷史紀(ji)錄,還能訪問賬單信息。
這(zhe)不就巧(qiao)了嗎(ma),許多用戶報告自己能夠看到別人的聊天記錄(lu)的時間恰恰也在這(zhe)個時候(hou)。
當時Sam Altman不得不親自出(chu)面,在(zai)推特(te)上解釋,bug問題源于開源代碼庫中存在(zai)的一個錯(cuo)誤(wu),最終導致ChatGPT聊天歷(li)史泄露。
Gal Nagli詳細介(jie)紹了自己如何發現這一(yi)漏洞的(de)過程,
在他處理ChatGPT認證流程的(de)請求時,一直在尋找可能泄(xie)露用戶信(xin)息(xi)的(de)任何異常(chang)情(qing)況(kuang)。一個(ge)GET請求,直接引(yin)起了(le)他的(de)注意:
//chat.openai[.]com/api/auth/session。
基本上,每當(dang)我們登錄到ChatGPT時(shi),這(zhe)個工具(ju)就(jiu)會(hui)獲(huo)取(qu)包括電(dian)子郵件、姓名、圖像和accessToken在(zai)內(nei)的(de)信(xin)息。
而攻擊者想要泄露這些信息(xi),便可(ke)以在服務(wu)器中利用「Web Cache Deception」這一漏(lou)洞。
Nagli稱這種(zhong)手(shou)法(fa)自己曾在各種(zhong)黑客比(bi)賽中見過很多(duo)次,甚至在許多(duo)人的博客中也(ye)有提到。
在高(gao)級視圖中,這個漏洞非常(chang)簡單,如果設法強制Load Balancer在特定路(lu)徑上緩存(cun)請求,其他人便能夠(gou)從緩存(cun)的(de)響應中讀(du)取用(yong)戶的(de)敏感數據。在這種情況下,漏洞不會直接發生(sheng)。
為(wei)(wei)了讓(rang)這個漏(lou)洞(dong)發揮作用,需要讓(rang)CF-Cache-Status響應確(que)認一(yi)(yi)個緩(huan)存的HIT。這意味著它緩(huan)存了數據(ju),并(bing)將為(wei)(wei)同一(yi)(yi)區域下(xia)一(yi)(yi)個請求提供服務(wu)。如果收到動態(DYNAMIC)響應,就(jiu)不會緩(huan)存數據(ju)了。
Nagli分享了一個攻(gong)擊(ji)流程:
-攻(gong)擊(ji)者(zhe)(zhe)構造一個專(zhuan)用的.css路徑(jing),指向/api/auth/session端點。-攻(gong)擊(ji)者(zhe)(zhe)分發鏈(lian)(lian)接(jie)(直接(jie)發送(song)給受(shou)害者(zhe)(zhe)或公開(kai)發布)。-受(shou)害者(zhe)(zhe)訪問合法鏈(lian)(lian)接(jie)。-響應被(bei)緩存。-攻(gong)擊(ji)者(zhe)(zhe)收集JWT憑證。他提出的修(xiu)(xiu)復(fu)(fu)方(fang)案是,通(tong)過正則表(biao)達式(regex)手動指示Load Balancer不要(yao)捕獲該端點。當然了(le),這(zhe)也是OpenAI選擇(ze)的修(xiu)(xiu)復(fu)(fu)方(fang)法。在這(zhe)漏洞被(bei)修(xiu)(xiu)復(fu)(fu)后,Nagli還收到了(le)OpenAI的表(biao)揚郵件。
在名人堂上統計中,Nagli已經賺到2500美金。
就在剛(gang)剛(gang),Nagli又發(fa)現了3個不同(tong)嚴(yan)重程度的附加漏洞,并(bing)獲得了300美(mei)金的獎勵。
看到這么豐厚的賞(shang)金,想必許多(duo)人已(yi)經等(deng)不及(ji)了,快來一起(qi)找bug吧。