12 月 26 日消息,來自斯坦福大學的多名計算機科學家研究發現,使用 Github Copilot、Facebook InCoder 等人工智能工具輔助編寫的代碼安全性低于完全由人類程序員編寫的代碼。
在近日發表的(de)(de)(de)《Do Users Write More Insecure Code with AI Assistants?》(使用 AI 輔(fu)助(zhu)編寫(xie)的(de)(de)(de)代碼更加不安(an)全(quan)?)論文中,斯坦福大學的(de)(de)(de) Neil Perry、Megha Srivastava、Deepak Kumar 和(he) Dan Boneh 給出了(le)肯定的(de)(de)(de)回(hui)答。更糟糕的(de)(de)(de)是,他(ta)(ta)們發現(xian) AI 幫助(zhu)往(wang)往(wang)會誤導開發人(ren)員關于他(ta)(ta)們輸出質量的(de)(de)(de)信息。
據了解,這些科學家在論文中寫(xie)道:“我(wo)們(men)發現(xian)完全(quan)(quan)由人類程序員編寫(xie)的(de)代(dai)碼,AI 輔助編寫(xie)的(de)代(dai)碼產生的(de)安全(quan)(quan)漏洞明(ming)顯更多,尤其是(shi)字(zi)符串(chuan)加密和 SQL 注入(ru)方面。而且令人驚訝(ya)的(de)一點是(shi),與(yu)(yu)無(wu)法訪問(wen) AI 助手的(de)參與(yu)(yu)者相比,提供 AI 助手訪問(wen)權限(xian)的(de)參與(yu)(yu)者更有可(ke)能(neng)相信他們(men)編寫(xie)了安全(quan)(quan)代(dai)碼”。
斯(si)坦福(fu)大學的(de)作者(zhe)說(shuo),這項研(yan)究的(de)范圍有限,因為(wei)它只(zhi)考慮了一組(zu)受(shou)限的(de)提示(shi),這些提示(shi)對應于 25 個漏洞(dong)和(he)三(san)種(zhong)編程語言:Python、C 和(he) Verilog。斯(si)坦福(fu)用(yong)戶研(yan)究涉及 47 名具有不同(tong)經驗水平(ping)的(de)人,包(bao)括本科生、研(yan)究生和(he)行(xing)業專(zhuan)業人士。