微軟支持的OpenAI首席執行官山姆·阿爾特曼(Sam Altman)呼吁美國監管高級大型語言模型的部署,警告沒有堅實的政策框架的生成式人工智能的危險。
在與美國參議院討論生成式AI治理的聽證會上,阿爾特曼認為,隨著對社會威脅的擔憂日益加劇,監管對于減輕日益強大的模型帶來的風險至關重要。
在(zai)他(ta)的(de)(de)證詞中(zhong)(zhong)討論(lun)的(de)(de)威脅,集中(zhong)(zhong)在(zai)與OpenAI如何訓練其模型相關的(de)(de)錯誤信息的(de)(de)傳播和違反數據(ju)隱私(si)法。
參議員理查(cha)德(de)·布盧門撒(sa)爾(Richard Blumenthal)在(zai)聽證會(hui)上(shang)表示,未(wei)經充分訓(xun)練的人工智能的前(qian)景(jing)“非常可怕”,并認為新技術必須“擔負責任”。
他指(zhi)出,OpenAI的(de)(de)(de)(de)ChatGPT具有模仿(fang)和模擬真(zhen)實人類互動的(de)(de)(de)(de)能力(li),他以(yi)一段由經過語(yu)音訓(xun)練的(de)(de)(de)(de)模型生成(cheng)的(de)(de)(de)(de)語(yu)音開始(shi)了他的(de)(de)(de)(de)證詞。
阿爾(er)特(te)曼建議(yi)稱,成立一個政府機構來監(jian)管(guan)人(ren)工智能的訓練和(he)部署將有助(zhu)于開發,并解釋了(le)對于開發者“許可和(he)測試要(yao)求相結合”的必要(yao)性(xing)。
他還(huan)提議吊(diao)銷開發超出某些“閾(yu)值”或“能力”的人工智能工具的開發者的許可,例如(ru)能自我復制或產生(sheng)有害內容(rong)的模型。
阿爾特(te)曼主張圍繞(rao)機器學習工具如何從互聯(lian)網手機數據(ju)以生(sheng)成(cheng)響應來(lai)制定管理規則。
“用戶(hu)應該能選(xuan)擇不讓我(wo)們這樣的公司(si)或其(qi)他社交媒(mei)體(ti)公司(si)使(shi)用他們的數據。”他補充道。