OpenAI三(san)位掌(zhang)舵(duo)人聯名(ming)發文,提議像管核設施一樣(yang)管AI!
他們預言十年內(nei)AI產出將(jiang)與大公司相當。而超級智能是一把“雙刃劍”,必須(xu)要(yao)受到監管。
近日,OpenAI CEO Sam Altman、總裁Greg Brockman和首席科學家Ilya Sutskever聯名發表了一篇“呼吁信”,認為世界需要建立一個國際人工智能監管(guan)機(ji)構,而且要穩(wen)中求快(kuai)建(jian)立起來(lai)。
他們解釋說:
人工智能(neng)的創新(xin)速(su)度如此之快(kuai),我們不能(neng)指望現(xian)有(you)的權威機構能(neng)夠充分控制這項技術。
OpenAI此舉受到大量關注,推特上轉贊(zan)已(yi)超3000:

馬(ma)斯克也來(lai)評(ping)論底(di)下湊了熱鬧,“控制很重要”:

有網友認為OpenAI提出這樣的舉措,阻礙了開(kai)放人(ren)工(gong)智能社區的發(fa)展,這看(kan)起來是自私(si)的,與OpenAI的名稱相違背:

也有網友對OpenAI提出的監管AI表示認同:
很高興看到這些(xie)問題受到更(geng)嚴肅的關注。

其實,在上周美國國會聽(ting)證會上,Altman就針對AI安全問題提(ti)出了三條措施:
成(cheng)立一個(ge)新的機構,負(fu)責為AI大(da)模型頒發(fa)許可,并(bing)擁有撤銷許可的權力。
為AI模型創建一套(tao)安全標準(zhun),對(dui)危險性做評估(gu),包(bao)括它(ta)們是否能夠“自(zi)我復制”、“逃出實(shi)驗(yan)室(shi)自(zi)己(ji)行動(dong)”。
要求獨(du)立(li)專家對模(mo)型的各種指標做獨(du)立(li)審(shen)計。
OpenAI此次再次呼(hu)吁建立監(jian)管機(ji)構。
在文章中(zhong),OpenAI高層承認人工智能不(bu)會自(zi)我管理,未(wei)來十年內人工智能系(xi)統將在很多領域超越專家水平,并且產出能夠與當今的最大企業相匹敵。
人工智能的(de)發展(zhan)已是大勢所趨,要想(xiang)限制(zhi)(zhi)它的(de)發展(zhan)就(jiu)需要類似(si)全球監視體制(zhi)(zhi)的(de)東西出(chu)現。
國(guo)外媒體TechCrunch認為,雖然OpenAI的(de)提議相當于“也許我們(men)應該(gai)做點(dian)什么”(也帶(dai)有(you)一(yi)點(dian)自(zi)夸的(de)傾向),但這“至少是一(yi)個起點(dian)”。
下面是OpenAI此次發(fa)布(bu)的文(wen)章全文(wen)編譯(yi):
超級智能的治理
現在(zai)是思考超級智能(neng)(neng)治(zhi)理的好時機——未來的人工智能(neng)(neng)系(xi)統在(zai)能(neng)(neng)力上將(jiang)遠(yuan)超通用人工智能(neng)(neng)(AGI)。

從我們(men)目前的觀(guan)察(cha)來(lai)看,可以想(xiang)象(xiang)在接下來(lai)的十(shi)年內(nei),人工智能系統將在大多數領域(yu)超(chao)越(yue)專家水平,其產出能夠(gou)與(yu)當今最大的企業相當。
無論是從潛在的積(ji)極影響還(huan)是負(fu)面影響來(lai)(lai)說,超級智(zhi)能(neng)都(dou)比人(ren)類曾經(jing)面對的其它技術更加(jia)強大(da)。這意味著我們(men)可能(neng)會迎來(lai)(lai)一個極其繁榮的未來(lai)(lai)。
然而,為了實(shi)現這個目標,我(wo)們必須有效(xiao)地管(guan)理其中的風險(xian)。考慮到潛在的存在主義風險(xian)(existential risk),我(wo)們不能(neng)僅(jin)僅(jin)采取被動的應(ying)對措施(shi)。核能(neng)就是一個常見的例子,具備類似特性的技術還包括合(he)成生物學。
我們(men)需要降低(di)當前人工智能技術的(de)風(feng)險,但對于超(chao)級智能,我們(men)需要特別(bie)的(de)處理和協調機(ji)制(zhi)。
一個起點
在引導人工智(zhi)能(neng)向良發展(zhan)的(de)過程中,有許(xu)多重要的(de)想(xiang)法需要我們考慮。
在這里,我們首先對其(qi)中的三個想法進行了初步思考:
首(shou)先,為(wei)了確保超(chao)級智能的(de)(de)發展可以在安全的(de)(de)前(qian)(qian)提(ti)下與社會(hui)順利(li)融合(he),我們(men)需要在前(qian)(qian)沿的(de)(de)研發工作之間進行一定(ding)程(cheng)度(du)的(de)(de)協調。
實現(xian)這一(yi)目標可(ke)(ke)以(yi)采取多種方(fang)式:全(quan)球各(ge)政府可(ke)(ke)以(yi)組(zu)建(jian)(jian)一(yi)個項目,將現(xian)有(you)的(de)許多工作(zuo)納(na)入其中;或者我們(men)可(ke)(ke)以(yi)達成一(yi)致意見(jian)(像下文(wen)所(suo)建(jian)(jian)議的(de),在新組(zu)織(zhi)的(de)支持(chi)下),限制人工智(zhi)能能力(li)的(de)研發(fa)增長速度,每年將其保持(chi)在一(yi)定(ding)幅度之內(nei)。
當然,我們應(ying)該要求各(ge)個公(gong)司以(yi)極高(gao)的標準負責任(ren)地行事。
其次,最(zui)終我們(men)很可能(neng)需要類似國際原子能(neng)機(ji)構(IAEA)這樣的機(ji)構來管理超級智能(neng)。任何達到一定能(neng)力(或(huo)計算資(zi)源等)門(men)檻(jian)的項目都應受到國際權威機(ji)構的監管。
該(gai)機(ji)構可以檢查系統、要(yao)求審計、測(ce)試(shi)是否(fou)符(fu)合安全(quan)標準,以及限制部署程度和安全(quan)級別等(deng)。跟蹤計算和能(neng)源使用情況可能(neng)會有很長的路要(yao)走,我們(men)需(xu)要(yao)得到一些使這(zhe)個(ge)想法(fa)可以實現的希望。
作為(wei)第一步(bu),公司可(ke)以自(zi)愿(yuan)同意(yi)開始(shi)實(shi)施(shi)這(zhe)樣一個(ge)機(ji)構未(wei)來可(ke)能(neng)要求的(de)(de)一些準(zhun)則;第二步(bu),各(ge)個(ge)國(guo)家(jia)可(ke)以逐步(bu)實(shi)施(shi)。重要的(de)(de)是,這(zhe)樣的(de)(de)一個(ge)機(ji)構應該專(zhuan)注于降低(di)存在(zai)主義風險(xian),而不(bu)是處理本(ben)應由各(ge)個(ge)國(guo)家(jia)解決的(de)(de)問題,比如規定(ding)人工(gong)智能(neng)能(neng)夠說些什么(me)。
第三,我(wo)(wo)們(men)需要(yao)具備技術能力來確保超級智能的安(an)全(quan)性(xing)。這是一個開放的研究問題,我(wo)(wo)們(men)和其(qi)他人正在為此(ci)付出很多(duo)努力。
不在監管范圍內的部分
我(wo)(wo)們認為允許公司和開(kai)(kai)源項目在明顯的能力(li)門(men)檻以下開(kai)(kai)發模(mo)型是非(fei)常重要的,無需采取我(wo)(wo)們所描述的監管(guan)措施(shi)(包括繁瑣的機制,如許可證(zheng)或審核)。
現今的(de)(de)系統將為世(shi)界帶來巨大的(de)(de)價值,雖然(ran)它(ta)們的(de)(de)確存在風(feng)險,但它(ta)們所帶來的(de)(de)風(feng)險程(cheng)度與其它(ta)互聯(lian)網技術相(xiang)當,而且社會對此的(de)(de)處理方式(shi)似(si)乎是(shi)恰如其分(fen)的(de)(de)。
相比之下,我們關注的系統是那種具有超越目(mu)前(qian)任(ren)何技術的力量。
我們應(ying)該注(zhu)意的(de)是,不要(yao)通(tong)過對遠(yuan)低于這(zhe)個標準的(de)技術(shu),應(ying)用相似的(de)標準來淡(dan)化對它(ta)們的(de)關注(zhu)。
公眾參與和潛力
然而,對(dui)于最強大系統的治理以及與其(qi)相關的部署決策,必須受到公眾強有(you)力的監督。
我們認為全世界(jie)的(de)人(ren)們應(ying)該以民主(zhu)的(de)方式決(jue)定AI系統的(de)界(jie)限和默認設(she)置(zhi)。
雖(sui)然我(wo)們還不知(zhi)道(dao)如何(he)設計這樣的(de)(de)(de)(de)機(ji)制,但我(wo)們計劃進行試驗來推動。而在界限(xian)之(zhi)內,我(wo)們仍然堅持認為個體(ti)用戶應該對所使用的(de)(de)(de)(de)AI系統的(de)(de)(de)(de)行為擁有(you)很大的(de)(de)(de)(de)控制權。
考慮到其中的風(feng)險和困難,我們有必要(yao)思考為(wei)什么要(yao)構建(jian)這項技術。
對于OpenAI來說,我們有兩個根(gen)本原因(yin)。
首先,我(wo)們(men)相(xiang)信它將(jiang)帶來一個比我(wo)們(men)今(jin)天能夠想象的更美好的世界(在教育、創意工作和個人生產(chan)力等(deng)領域,我(wo)們(men)已經看到了早期的成果)。
世(shi)界面(mian)臨著許多問(wen)題(ti),我們(men)(men)需要更多幫助來解決這(zhe)些(xie)問(wen)題(ti),而這(zhe)項技術可(ke)以改善我們(men)(men)的(de)(de)社會。每個人使用這(zhe)些(xie)新工具(ju)的(de)(de)創造力肯定會讓我們(men)(men)感到(dao)驚(jing)嘆。經(jing)濟增長和生(sheng)活(huo)質量的(de)(de)提高也(ye)將是令(ling)人吃驚(jing)的(de)(de)。
其次(ci),我們相信阻止超(chao)級智能(neng)的(de)創建是具(ju)有(you)非直觀風險和困(kun)難的(de)。因為(wei)其帶來的(de)好處是非常巨大(da)的(de),建造(zao)它的(de)成本(ben)每(mei)年都在(zai)下(xia)降,而(er)參與(yu)者(zhe)數量在(zai)迅速(su)增加。
它本質上是我們所走(zou)的(de)技術道路(lu)的(de)一部分,要監(jian)管它的(de)發(fa)展就(jiu)需要類似(si)全球監(jian)視體制的(de)存在。
但即(ji)便如(ru)此,也無法保(bao)證監管的有效性。
所以,我們(men)必須(xu)把它做好。
參考(kao)鏈接(jie):
[1]//openai.com/blog/governance-of-superintelligence
[2]//techcrunch.com/2023/05/22/openai-leaders-propose-international-regulatory-body-for-ai/
[3]//twitter.com/OpenAI/status/72410368