前腳ChatGPT剛剛上線iOS嗨翻(fan)全(quan)球,火速霸(ba)榜APP Store;
后腳卻曝出消息——蘋果自家員工不能用ChatGPT,而且已(yi)經好幾個月了。
這(zhe)事兒馬上引(yin)發巨大討論(lun)。
要知道(dao),從(cong)ChatGPT趨勢到來后,蘋果就(jiu)幾乎保持“隱身”,好(hao)不容(rong)易(yi)iPhone擁抱ChatGPT了,現在好(hao)像又潑了盆冷水。
有人已經開始嘲諷:
蘋(pin)果(guo)是(shi)害怕(pa)員工發現AI真的有用嗎(ma)?
所以他(ta)們(men)要用自己(ji)的?最(zui)好別像Siri那(nei)樣(yang)。
誒?還真說不定。
借著這次大新聞,蘋果研究自家大模型的消息也不脛而走,而且Siri也將很快上線AI新功能。
最新庫克公開表態:生成AI技術潛力很大,但有問題需要解決,也側面印證了他(ta)們(men)的AI進(jin)展(zhan)。
所以蘋果不(bu)是不(bu)搞,或許只是發布時間沒到。
擔憂數據泄露
據《華(hua)爾街日報》消息,蘋果禁止員(yuan)工使用的包括ChatGPT和Copilot。
知(zhi)名(ming)蘋(pin)果(guo)產品追蹤記者也在(zai)推特(te)上進一步爆料,ChatGPT在(zai)蘋(pin)果(guo)員工禁(jin)用(yong)名(ming)單上已經好幾(ji)個月(yue)了(le)。
會(hui)有這樣的決策倒(dao)也不稀奇。
一方面,ChatGPT本身在數據使用方面一直備受爭議。
最初,除了API用戶(hu)以外的(de)所(suo)有用戶(hu)聊天記錄,都會被(bei)用來訓練(lian)和提升模型性能(neng),這意(yi)味著用戶(hu)數(shu)據有被(bei)泄露的(de)風(feng)險。
事實上,今年3月(yue)確實發生這樣的意外事故。
一(yi)個(ge)bug導致一(yi)些用戶的對話標題泄(xie)露,其(qi)他人(ren)能在自己的界面上看到這些信息。當時(shi)這個(ge)bug一(yi)度導致ChatGPT臨(lin)時(shi)關閉。
上(shang)個月,OpenAI正式推出新規(gui)定(ding),以進(jin)一步保護用戶數據安全(quan):
用戶可以通過關閉聊(liao)天記錄功能,來避(bi)免自(zi)己的個人數據被(bei)官方拿去訓練。
另一方面(mian),出于安全(quan)方面(mian)的考慮,不少大型企業都出臺相關政策(ce)要求(qiu)員工不要使用ChatGPT。
如亞(ya)馬遜在1月就要(yao)(yao)求員工(gong)不要(yao)(yao)將代碼(ma)輸(shu)入ChatGPT,此前(qian)有消息稱(cheng),它們發(fa)現了ChatGPT會模仿(fang)亞(ya)馬遜內部(bu)代碼(ma)。
摩(mo)根大(da)通在2月限制全球員工使用ChatGPT,原因是出于(yu)合規方(fang)面的考(kao)慮。
還有(you)更加(jia)離奇一些(xie)的,三星曾(ceng)表示20天內因ChatGPT發生了(le)3起數(shu)據泄露(lu)事故。
而一直(zhi)以強調安全著稱的蘋果,做出類似舉(ju)措也就合情合理了。
畢竟一(yi)旦員工不小心將(jiang)機密(mi)項目的信息輸入(ru)系統,這些內容就可能泄露給OpenAI。
還有(you)人表示,ChatGPT的(de)(de)輸出結果還是(shi)有(you)出錯的(de)(de)可能,或(huo)許會導(dao)致bug產生(sheng)、數據漏洞等,所以大公司(si)禁止(zhi)使用也合情合理。
不過,ChatGPT爆火幾個月以來,它(ta)在工(gong)作效(xiao)率、工(gong)作創(chuang)意上(shang)的(de)(de)提升是不可否認的(de)(de)。
很多人(ren)都將它加(jia)入到了自(zi)己的工作(zuo)流,包括陶哲軒這樣的大佬。
最初(chu)明令禁止(zhi)學生使用ChatGPT的紐約公立中學,也(ye)在這兩(liang)天內取(qu)消禁令。
所(suo)以不免有人擔心,蘋果這(zhe)樣封閉ChatGPT,是否(fou)會扼殺自身的創新能力(li)。
值得(de)一提的(de)是,曾經禁止員工使(shi)用ChatGPT的(de)亞(ya)馬遜,近期也加入(ru)了(le)大模型(xing)浪潮,發布自家(jia)大模型(xing)平臺。
這也開(kai)始讓人猜測,大(da)廠不(bu)是不(bu)擁抱ChatGPT,只是要擁抱自己(ji)的ChatGPT?
事實上,蘋果的(de)最新(xin)語言大模型,真(zhen)的(de)有消息(xi)了。
Siri被曝很快上線新AI功能
據9to5Mac爆料,Siri將很快(kuai)上線新的AI功能。
新(xin)技術代號(hao)為Bobcat,早在今年3月就(jiu)被爆出(chu)已(yi)經在進行測試(shi)了——
首先是在最新tvOS 16.4 beta上測試,新框架叫(jiao)做Siri Natural Language Generation(Siri自然語(yu)言(yan)生成)功能(neng),之后這一功能(neng)進(jin)入到蘋(pin)果的其(qi)他操作系(xi)統中。
但爆(bao)料顯示只不過是實現了(le)在Apple TV上(shang)與Siri講笑話。除此之外(wai),還(huan)在試驗如何將語言生(sheng)成用于計(ji)時器。
與此同時,這一(yi)新(xin)項目的領導(dao)人(ren)也(ye)被爆出。
John Giannandrea,目(mu)前是蘋果負責機器學習和AI戰略的高(gao)級副總裁,直接向庫克匯報。
他早在(zai)(zai)2018年(nian)(nian)就加(jia)入蘋果,負責監督整個公司的(de)AI和ML戰略以及Core ML和Siri技術的(de)開發。在(zai)(zai)加(jia)入蘋果之(zhi)前(qian),他曾在(zai)(zai)谷歌呆了八年(nian)(nian),領導機器智能(neng)、研究和搜索團隊。
而就在最(zui)近的投資者電話(hua)會議上庫克表態,也側面證實了(le)他們在做相關的研發,只不過發布時機還沒到。
此前,就有蘋果員工曾抱怨Siri工作效率低下。Siri之所以逐漸走向沒落,是因為內部團隊混亂、決策緩慢、代碼笨重,導致在Siri和AI開發上受到嚴重阻(zu)礙(ai)。
更(geng)本(ben)質的(de)原因,還在于技術研發(fa)和判斷上。
比如現(xian)在ChatGPT所展現(xian)的核心功(gong)能和技(ji)術,就曾被蘋果高管否決過。
就像長(chang)對話能力,他們認為會導致對話容易失(shi)控,而(er)且“很(hen)花哨”。
為了防止Siri胡言(yan)亂語,蘋果(guo)選擇讓(rang)人(ren)工(gong)團隊(dui)預(yu)先寫出答案,并且還(huan)多次拒絕允許用戶對Siri回答問(wen)題進行反饋,導致開發團隊(dui)無(wu)法(fa)理解(jie)模型的局限(xian)。
雖(sui)然不能肯定蘋果禁用(yong)ChatGPT,與自身開發(fa)AI工具(ju)有關。
但是(shi)蘋(pin)果Siri上線(xian)新(xin)AI功能,想必也是(shi)不少(shao)人所期(qi)待了。
參考鏈接:
[1]//www.wsj.com/articles/apple-restricts-use-of-chatgpt-joining-other-companies-wary-of-leaks-d44d7d34
[2]//9to5mac.com/2023/05/18/apple-bans-employees-from-using-chatgpt/