国产人妻精品区一区二区,国产农村妇女毛片精品久久,JAPANESE日本丰满少妇,日本公妇理伦a片,射精专区一区二区朝鲜

OpenAI提議像管核設施一樣管AI!預言十年內AI產出與大公司相當
作者 | 量子(zi)位2023-05-24

OpenAI三位掌舵人聯名(ming)發(fa)文,提(ti)議(yi)像管(guan)核設施一樣管(guan)AI!

他(ta)們預言十(shi)年內AI產出(chu)將與(yu)大公司相當。而超級(ji)智能是一把“雙刃劍”,必(bi)須要受到監管。

近日,OpenAI CEO Sam Altman、總裁Greg Brockman和首席科學家Ilya Sutskever聯名發表了一篇“呼吁信”,認為世界需要建立一個國際人工智能監管機(ji)構,而且(qie)要穩(wen)中求快建立起來。

他們解釋說:

人工智能的(de)創新速度如此(ci)之快,我們不能指望現有的(de)權威機構能夠充分控制這項技術。

OpenAI此舉受(shou)到(dao)大量關注,推(tui)特(te)上(shang)轉贊(zan)已超3000:

馬斯克(ke)也來評(ping)論底下(xia)湊(cou)了熱鬧,“控制很重要”:

有網友認為(wei)OpenAI提(ti)出這樣的舉措,阻礙(ai)了開放(fang)人工智能社區的發展,這看起來是自私的,與OpenAI的名稱相違背:

也有網友(you)對(dui)OpenAI提(ti)出(chu)的(de)監管AI表示認同:

很(hen)高興看(kan)到這些問題受到更嚴肅(su)的關注。

其實,在(zai)上(shang)(shang)周美國國會(hui)聽證(zheng)會(hui)上(shang)(shang),Altman就針(zhen)對AI安全問題提出了(le)三條措施:

成立一(yi)個新的機構,負責為AI大模型頒發許可,并擁有撤銷許可的權(quan)力(li)。

為AI模型創建一套(tao)安全標準,對(dui)危險(xian)性做評估,包括(kuo)它(ta)們(men)是否能夠“自我(wo)復制”、“逃出(chu)實驗室自己行動”。

要求獨立專家對模型的(de)各種指(zhi)標做(zuo)獨立審計(ji)。

OpenAI此次(ci)再(zai)次(ci)呼吁建立監管機構(gou)。

在(zai)文章中,OpenAI高層承認人(ren)工智能不(bu)會自我管(guan)理,未來十年內人(ren)工智能系統(tong)將在(zai)很多領(ling)域超(chao)越專家水平,并且(qie)產出(chu)能夠與(yu)當今的(de)最大企業相匹敵。

人工智能的(de)發展已是大勢所趨,要(yao)想(xiang)限(xian)制它(ta)的(de)發展就需要(yao)類似全球監視體制的(de)東西出現。

國外媒(mei)體TechCrunch認為,雖然OpenAI的提議(yi)相當于“也許我們應該(gai)做點什么”(也帶(dai)有(you)一點自夸的傾向),但這“至少是一個起點”。

下面(mian)是OpenAI此次(ci)發(fa)布的(de)文章全(quan)文編譯:

超級智能的治理

現在(zai)是思考超(chao)級智(zhi)能(neng)治理(li)的(de)好(hao)時機——未來(lai)的(de)人(ren)工(gong)(gong)智(zhi)能(neng)系統(tong)在(zai)能(neng)力上將遠(yuan)超(chao)通(tong)用人(ren)工(gong)(gong)智(zhi)能(neng)(AGI)。

從我們(men)目前(qian)的觀察(cha)來(lai)看,可以想象在(zai)(zai)接下來(lai)的十年內,人工智能系統將(jiang)在(zai)(zai)大(da)多數領域超越專(zhuan)家水平,其(qi)產出能夠(gou)與當今最大(da)的企業相當。

無論是從潛在的積極(ji)影響(xiang)還是負面影響(xiang)來說,超級智(zhi)能都(dou)比(bi)人類曾經面對的其它技術更加(jia)強大。這(zhe)意味著我們可能會(hui)迎來一個極(ji)其繁榮的未來。

然而,為了實現這(zhe)個目標,我們(men)(men)必須有效(xiao)地管理其中的(de)風(feng)險(xian)。考(kao)慮到潛在的(de)存在主義風(feng)險(xian)(existential risk),我們(men)(men)不能僅僅采取被動的(de)應對措施。核能就是(shi)一(yi)個常見(jian)的(de)例(li)子,具備(bei)類似特性的(de)技術(shu)還包括合成生(sheng)物學。

我們需(xu)要降低當(dang)前(qian)人(ren)工智能(neng)技術的風險,但對(dui)于超級智能(neng),我們需(xu)要特別的處理和協調機制。

一個起點

在引導人(ren)工智能向良發展的過(guo)程中,有許(xu)多重要的想法需要我們考慮。

在這里(li),我們首先對其中的三(san)個(ge)想法(fa)進行了初(chu)步(bu)思考:

首先,為了確保超級智能的發展可以在安全的前提下與(yu)社(she)會順利融(rong)合,我們需要在前沿的研發工作之間進行一定程度(du)的協調。

實現這一(yi)目(mu)標可(ke)(ke)以采取多種(zhong)方式:全球各政府可(ke)(ke)以組建(jian)一(yi)個項目(mu),將現有的許多工(gong)作納入其中;或者我們可(ke)(ke)以達成一(yi)致意見(像下文所建(jian)議的,在新組織的支(zhi)持(chi)下),限制人工(gong)智(zhi)能(neng)能(neng)力的研(yan)發增長(chang)速度(du),每年將其保持(chi)在一(yi)定(ding)幅(fu)度(du)之內(nei)。

當然,我們(men)應該(gai)要求(qiu)各個公司以極高的標準負責任地行(xing)事。

其次,最終(zhong)我們很(hen)可能需(xu)要類似國際原子(zi)能機(ji)構(IAEA)這樣的機(ji)構來管理超級智能。任何(he)達到(dao)一定(ding)能力(或計算資源等)門檻的項目都應(ying)受到(dao)國際權威機(ji)構的監管。

該機構可(ke)以(yi)檢查(cha)系統、要求(qiu)審計(ji)、測試是否(fou)符合(he)安全標準(zhun),以(yi)及限制部署程度和安全級別等。跟蹤計(ji)算和能源(yuan)使用情(qing)況(kuang)可(ke)能會有很長的路(lu)要走,我們需要得到一些使這(zhe)個想法可(ke)以(yi)實(shi)現的希(xi)望。

作(zuo)為第(di)一(yi)(yi)(yi)步,公司(si)可(ke)(ke)以自愿同意開(kai)始實施這樣一(yi)(yi)(yi)個機構未(wei)來可(ke)(ke)能(neng)要(yao)求的(de)一(yi)(yi)(yi)些準則;第(di)二步,各個國家(jia)可(ke)(ke)以逐步實施。重要(yao)的(de)是,這樣的(de)一(yi)(yi)(yi)個機構應該(gai)專注于降低存在主義風(feng)險,而不是處理本(ben)應由各個國家(jia)解決的(de)問題,比如規定人工(gong)智能(neng)能(neng)夠(gou)說些什么(me)。

第三(san),我們(men)需(xu)要具備(bei)技術能力(li)來確保超級智能的安(an)全性。這是一個開放的研(yan)究問題,我們(men)和其他人正在為此(ci)付出很多努力(li)。

不在監管范圍內的部分

我們認為允許公司和開源項目在明顯的能(neng)力門檻(jian)以下(xia)開發模型是非常重要(yao)的,無(wu)需采取我們所(suo)描述的監管措施(shi)(包括繁(fan)瑣的機制,如許可證或(huo)審核)。

現今的(de)(de)系統將為(wei)世界帶來巨大的(de)(de)價值,雖然它們的(de)(de)確存在風險(xian),但它們所帶來的(de)(de)風險(xian)程度(du)與其(qi)它互(hu)聯網技術相(xiang)當(dang),而且(qie)社會對此的(de)(de)處理(li)方式(shi)似乎是恰如其(qi)分的(de)(de)。

相(xiang)比之下,我們關(guan)注(zhu)的系(xi)統是那種具有超越目前(qian)任何(he)技術的力量。

我(wo)們應(ying)該(gai)注意的是,不要通過對遠低于這個(ge)標(biao)準(zhun)的技術,應(ying)用相似的標(biao)準(zhun)來淡(dan)化對它(ta)們的關注。

公眾參與和潛力

然而,對于(yu)最強(qiang)大系統的(de)治理以及與其(qi)相關(guan)的(de)部署決(jue)策,必須受到公(gong)眾強(qiang)有(you)力的(de)監督。

我們認(ren)為(wei)全世(shi)界的(de)人們應該(gai)以(yi)民主的(de)方式決定AI系統的(de)界限(xian)和默認(ren)設置。

雖(sui)然我們(men)還不知道如何設(she)計這(zhe)樣的機制(zhi),但我們(men)計劃進行(xing)試驗來推(tui)動(dong)。而在(zai)界(jie)限(xian)之內,我們(men)仍然堅持認(ren)為個(ge)體用(yong)戶應該(gai)對所使用(yong)的AI系統的行(xing)為擁(yong)有很大的控制(zhi)權。

考慮到其(qi)中的風(feng)險(xian)和困難,我(wo)們有(you)必要(yao)思考為什么要(yao)構建這項技術。

對于OpenAI來說,我(wo)們有兩個根本原(yuan)因。

首(shou)先(xian),我(wo)(wo)們(men)相信它將帶來一個(ge)比我(wo)(wo)們(men)今(jin)天(tian)能夠想象的更美好的世界(jie)(在教育(yu)、創(chuang)意工作和個(ge)人生(sheng)產力等領域,我(wo)(wo)們(men)已經看到了早(zao)期的成果(guo))。

世界面臨著許多問題,我們(men)(men)需要更多幫助(zhu)來解決這(zhe)(zhe)些問題,而這(zhe)(zhe)項技術可以改善我們(men)(men)的社會(hui)。每個人(ren)(ren)使用這(zhe)(zhe)些新工具的創造力肯(ken)定會(hui)讓(rang)我們(men)(men)感到驚(jing)嘆。經濟(ji)增長和生活質量(liang)的提高也將是令(ling)人(ren)(ren)吃驚(jing)的。

其次,我們相信(xin)阻止(zhi)超級智能的創建是具有非(fei)直觀風險和(he)困難的。因為(wei)其帶來的好處(chu)是非(fei)常(chang)巨大的,建造(zao)它(ta)的成本每年(nian)都在下降,而參與者數量(liang)在迅速增加。

它本質上是我們所走的(de)技(ji)術道路的(de)一部分,要(yao)監(jian)管它的(de)發展就需要(yao)類(lei)似全球(qiu)監(jian)視體制的(de)存在。

但即便如(ru)此,也無(wu)法保(bao)證(zheng)監管(guan)的有(you)效性。

所以,我們必須把它做好。

參考鏈接:

[1]//openai.com/blog/governance-of-superintelligence

[2]//techcrunch.com/2023/05/22/openai-leaders-propose-international-regulatory-body-for-ai/

[3]//twitter.com/OpenAI/status/1660700692372410368

熱門文章
前腳ChatGPT剛剛上線iOS嗨翻全球,火速霸榜APP Store;后腳卻曝出消息——蘋果自家員工不能用ChatGPT,而且已經好幾個月了。這事兒馬上引發巨大討論。要知道,從ChatGPT趨勢到來后
2023-05-24
X