據外媒報道,當地時間周三,OpenAI 宣布,將成立一個新的團隊,以開發引導和控制 " 超級智能 " 人工智能系統的方法。
OpenAI 表示,該(gai)團(tuan)(tuan)隊由首(shou)席科學家(jia)、聯合創始人之一伊利亞 · 蘇斯克維爾(Ilya Sutskever)以(yi)及該(gai)公司協(xie)調團(tuan)(tuan)隊負責人簡 · 萊克(Jan Leike)共(gong)同領(ling)導。
這(zhe)兩人(ren)預測(ce),智(zhi)(zhi)能超過(guo)人(ren)類的(de)人(ren)工智(zhi)(zhi)能將在十(shi)年內(nei)出現。他們還(huan)稱,這(zhe)種人(ren)工智(zhi)(zhi)能不一定是仁慈的(de),因此有必要研究控制(zhi)和限(xian)制(zhi)它的(de)方法(fa)。
除(chu)了蘇斯(si)克(ke)維(wei)爾和萊克(ke)外,該團隊還(huan)將包(bao)括(kuo)其他 OpenAI 部(bu)門(men)的(de)(de)研究人員(yuan)以及新的(de)(de)研究人員(yuan)和工程師。
據悉,這并(bing)不是 OpenAI 第(di)一(yi)(yi)次(ci)談論(lun)超級(ji)智(zhi)(zhi)能(neng)人工(gong)智(zhi)(zhi)能(neng)。2023 年 5 月,OpenAI 首(shou)席(xi)執(zhi)行(xing)官薩姆 · 奧(ao)特曼(Sam Altman)與(yu)蘇斯克維爾共同撰寫(xie)了(le)一(yi)(yi)篇論(lun)文,他在論(lun)文中描述了(le)對(dui)超級(ji)智(zhi)(zhi)能(neng)人工(gong)智(zhi)(zhi)能(neng)進行(xing)特殊監管的必(bi)要性,以及在它(ta)與(yu)人類(lei)社(she)會融合之前必(bi)須如何(he)安全地處理它(ta)。
人工智(zhi)能(neng)的潛(qian)在危險一直是人工智(zhi)能(neng)研(yan)究人員和公眾最關心的問題。今年 3 月份,馬斯克等千(qian)名科技人士(shi)曾簽署公開信,呼吁(yu)暫停訓(xun)練比 GPT-4 更(geng)強(qiang)大的 AI 系統至少(shao) 6 個月。