6月16日消息,據外媒報道,在OpenAI訓練的人工智能聊天機(ji)器人(ren)ChatGPT大火(huo)之后,多家公司在開發(fa)類似的產品(pin),也(ye)有(you)不少公司將ChatGPT等人(ren)工智能(neng)工具(ju)引入到了他們的服(fu)務或(huo)工作(zuo)中。

ChatGPT等人工智能工具在(zai)為相關的服務或產(chan)品帶來(lai)全新(xin)功能、為工作帶來(lai)便利的同時,泄(xie)密也(ye)成(cheng)了他(ta)們不得不重視的問題,三(san)星電子半導體(ti)業務部門(men)的員(yuan)工在(zai)使用(yong)ChatGPT時就導致部分源代碼泄(xie)漏,三(san)星隨后(hou)也(ye)禁止員(yuan)工在(zai)工作場所使用(yong)ChatGPT等生(sheng)成(cheng)式(shi)人工智能聊天工具。
而從外媒最新的(de)(de)報道(dao)來看,作為ChatGPT競品的(de)(de)谷歌Bard,也有類(lei)似的(de)(de)泄密風險。

外媒(mei)援引(yin)消息人(ren)(ren)士的透露報道(dao)稱(cheng),谷歌(ge)母公司Alphabet已(yi)告知員工,不要(yao)將(jiang)機密信(xin)息輸入(ru)人(ren)(ren)工智(zhi)能(neng)聊天機器人(ren)(ren),并警告員工包括(kuo)自(zi)家Bard在內(nei)的人(ren)(ren)工智(zhi)能(neng)工具(ju)的風險。
除了不要將(jiang)機(ji)密信(xin)息輸入人(ren)工(gong)智(zhi)能聊天(tian)機(ji)器(qi)人(ren),Alphabet還建議(yi)工(gong)程師不要直(zhi)接使用人(ren)工(gong)智(zhi)能聊天(tian)機(ji)器(qi)人(ren)生成的(de)代碼。
此(ci)外(wai),從外(wai)媒的報道(dao)來看,谷歌(ge)方(fang)面(mian)似乎(hu)很早就(jiu)有信息泄密(mi)方(fang)面(mian)的擔憂(you),在今年2月(yue)份,也就(jiu)是Bard人(ren)工智(zhi)能聊天機器人(ren)還在內部測(ce)試時,谷歌(ge)就(jiu)已告知參與測(ce)試的員工,在正式發布之(zhi)前不要輸(shu)入(ru)內部信息。
作(zuo)為在(zai)ChatGPT大(da)火之后盡全力推出(chu)的(de)競品(pin),Bard對谷歌(ge)多項業務的(de)未來發展(zhan)至關重(zhong)要,他們目(mu)前(qian)正在(zai)全球超過180個(ge)國(guo)家以(yi)40種語言(yan)推廣。
隨著ChatGPT、谷歌Bard等人(ren)(ren)工(gong)智能工(gong)具的不(bu)斷(duan)強大(da)(da),使用(yong)這些工(gong)具的人(ren)(ren)群也在不(bu)斷(duan)壯大(da)(da),也有大(da)(da)量的公司員(yuan)工(gong)在工(gong)作時使用(yong),這也就增加了公司信息泄(xie)露的風險。相關機構(gou)在1月份對12000人(ren)(ren)的調查就顯示,大(da)(da)約43%的專業人(ren)(ren)士在使用(yong)ChatGPT或(huo)其他人(ren)(ren)工(gong)智能工(gong)具時,通常不(bu)會告(gao)知(zhi)他們的老板(ban)。