国产人妻精品区一区二区,国产农村妇女毛片精品久久,JAPANESE日本丰满少妇,日本公妇理伦a片,射精专区一区二区朝鲜

OpenAI放大招“對打”谷歌Gemini:全力籌備多模態大模型,并發布新指令語言模型
作者 | AI前線2023-09-20
圖片

編譯 | 凌敏、核子可樂


自去年年底通過(guo) ChatGPT 驚艷全球以來,OpenAI 一直保持著驚人的(de)產(chan)品發(fa)布速度,通過(guo)迅如閃(shan)電的(de)“組(zu)合拳”保持該(gai)公司在(zai) AI 領(ling)域(yu)建立的(de)統治地位與領(ling)導者(zhe)形(xing)象。

但(dan)其(qi)他科技巨頭絕(jue)不可能坐視 OpenAI 一家獨大(da)。谷(gu)歌已經(jing)公布大(da)語言模型 Gemini,計劃(hua)于今年秋季首次與廣大(da)用(yong)戶見面,且有(you)報道(dao)稱該模型已經(jing)在接(jie)受(shou)指定企業客戶的測試。從目前的情況看,谷(gu)歌有(you)可能后來居上、實現(xian)反超。

面對挑戰(zhan),OpenAI 連續(xu)放大招,除了發布新指(zhi)令語言模(mo)(mo)型(xing) GPT-3.5-turbo-instruct,還計劃推(tui)出(chu)多模(mo)(mo)態大模(mo)(mo)型(xing) GPT-Vision 與  Gobi。據一位未公(gong)開身份的知情人士透(tou)露,OpenAI 在積(ji)極將多模(mo)(mo)態功能(類似于(yu) Gemini 將要(yao)提供的功能)納入 GPT-4。

新語言模型 InstructGPT-3.5

近日,OpenAI 推出 GPT-3.5-turbo-instruct,這是一款新的(de)指令(ling)語言模型,效(xiao)率(lv)可以(yi)與聊天(tian)優化(hua)的(de) GPT-3.5 Turbo 模型相(xiang)媲美。

指令模(mo)型(xing)屬于大(da)語言模(mo)型(xing)的一(yi)種,會在使用(yong)一(yi)大(da)量數(shu)據(ju)進行(xing)預訓練(lian)之后,再(zai)通過人(ren)類反饋(kui)(RLHF)做進一(yi)步完善。在此過程(cheng)中,會由人(ren)類負責評估模(mo)型(xing)根據(ju)用(yong)戶提(ti)示詞生成(cheng)的輸出,對結果做改進以達成(cheng)目標效(xiao)果,再(zai)將(jiang)更新后的素(su)材用(yong)于進一(yi)步訓練(lian)。

因此,指令模型(xing)能(neng)夠更好地理解(jie)(jie)并(bing)響應人(ren)類的(de)查詢預期,減少錯(cuo)誤(wu)并(bing)緩解(jie)(jie)有害內容的(de)傳播。從 OpenAI 的(de)測試結果來看,盡管體量僅為后者的(de)百分之一(yi),但人(ren)們(men)明顯(xian)更喜歡擁有 13 億參數的(de) InstructGPT 模型(xing),而非(fei)擁有 1750 億參數的(de) GPT 模型(xing)。

據了解,GPT-3.5-turbo-instruct 的(de)成本與性能同(tong)其他(ta)具有 4K 上下文(wen)窗口的(de) GPT-3.5 模型相同(tong),使用的(de)訓練數據截止于 2021 年 9 月。

圖片

GPT-3.5-turbo-instruct 將取代一系列現有 Instruct 模型,外加 text-ada-001、text-babbage-001 和 text-curie-001。這三款 text-davinci 模型將于 2024 年 1 月 4 日正式停用。

OpenAI 表(biao)示,GPT-3.5-turbo-instruct 的(de)(de)訓練方式與之前的(de)(de)其他(ta) Instruct 模型類似。該公(gong)司并未提供新 Instruct 模型的(de)(de)細節(jie)或基準,而是參考了 2022 年 1 月發布的(de)(de) InstructGPT,即 GPT-3.5 模型的(de)(de)實現基礎。

OpenAI 稱,GPT-4 擁有超(chao)越(yue) GPT-3.5 的復(fu)雜指令遵循能力,生(sheng)成的結果(guo)也比 GPT-3.5 質(zhi)量(liang)更(geng)高;但(dan) GPT-3.5 也有自(zi)己的獨特優(you)勢(shi),例如速度(du)更(geng)快且運行成本更(geng)低。GPT-3.5-turbo-instruct 并非聊(liao)天模(mo)型,這一點與原(yuan)始 GPT-3.5 有所區別(bie)。具體來(lai)講,與之前的聊(liao)天應用(yong)模(mo)型不同,GPT-3.5-turbo-instruct 主要針(zhen)對直(zhi)接問答或文本補全進行優(you)化。

速度方(fang)面,OpenAI 稱 GPT-3.5-turbo-instruct 速度與 GPT-3.5-turbo 基(ji)本相當(dang)。

下圖為 OpenAI 設計(ji)的(de) Instruct 指(zhi)令(ling)模型與 Chat 聊天(tian)模型之間的(de)區別。這種固有差異自然會(hui)對(dui)提示(shi)詞的(de)具體(ti)編寫(xie)產生影響。

圖片

OpenAI 負責開發者關系的 Logan Kilpatrick 稱,這套新的指令模型屬于向 GPT-3.5-turbo 遷移當中的過渡性產物。他表示其并不屬于“長期解決方案”。已經在使用微調模型的用戶,需要根據新的模型版本做重新微調。目前微調功能只適用于 GPT-3.5,GPT-4 的微調選項計劃于今年晚些時候發布。

多模態大模型GPT-Vision 與 Gobi

除了 GPT-3.5-turbo-instruct,OpenAI 近日還計劃發布多模(mo)態(tai)大模(mo)型 GPT-Vision,以及一個代(dai)號為“Gobi”的更強大的多模(mo)態(tai)大模(mo)型。

據悉,GPT-Vision 在 3 月(yue)份(fen)的(de)(de) GPT-4 發布期間首次預覽(lan),是 OpenAI 融合文(wen)本和(he)視(shi)(shi)覺領域的(de)(de)雄心(xin)勃勃的(de)(de)嘗試。雖然該功能(neng)最(zui)初實際用(yong)例僅限(xian)于 Be My Eyes 公(gong)司(si),這(zhe)家公(gong)司(si)通過其移動應用(yong)幫助視(shi)(shi)力障礙(ai)或(huo)失(shi)明用(yong)戶進行日常活動。

GPT-Vision 有潛力重(zhong)新定(ding)義創意(yi)內(nei)容(rong)生成(cheng)的(de)(de)界限。想象一(yi)下使用簡單的(de)(de)文本提(ti)示(shi)生成(cheng)獨特(te)的(de)(de)藝術品(pin)、徽標(biao)或模因。或者考慮(lv)一(yi)下對有視(shi)(shi)覺(jue)(jue)障礙的(de)(de)用戶(hu)的(de)(de)好處,他們可以(yi)通過自然語言查詢與視(shi)(shi)覺(jue)(jue)內(nei)容(rong)交互并理解視(shi)(shi)覺(jue)(jue)內(nei)容(rong)。該(gai)技術還有望(wang)徹底改變視(shi)(shi)覺(jue)(jue)學習和教育,使用戶(hu)能夠通過視(shi)(shi)覺(jue)(jue)示(shi)例(li)學習新概念。

如今,OpenAI 正準(zhun)備將(jiang)這項名為(wei) GPT-Vision 的功能開放給更廣(guang)泛(fan)的市場受(shou)眾。

此外,據(ju) The Information 報道(dao),OpenAI 即將發布代(dai)(dai)號為“Gobi”的下一(yi)代(dai)(dai)多模態大(da)語言模型,希望借此擊敗谷(gu)歌(ge)并繼續保(bao)持市場(chang)領先地(di)位。目前,Gobi 的訓練還沒有(you)開始,有(you)評論(lun)認為其有(you)機會成為 GPT-5。

報道(dao)稱,OpenAI 之所以耗費大量時間來推出 Gobi,主要是擔心新的視覺功(gong)能會被壞(huai)人(ren)利用,例如通(tong)過自動(dong)解決驗證碼來冒充人(ren)類(lei),或者通(tong)過人(ren)臉(lian)識(shi)別追(zhui)蹤人(ren)們。但現(xian)在,OpenAI 的工程師(shi)們似乎想到辦法來緩解這個安全問(wen)題了。

OpenAI CEO:GPT-5 尚未出現,計劃將多模態功能納入 GPT-4

據(ju)了解,多(duo)(duo)模(mo)態大(da)語言模(mo)型的(de)本(ben)(ben)質是一種(zhong)先進(jin) AI 系(xi)統,能夠理(li)解和處(chu)(chu)理(li)多(duo)(duo)種(zhong)數據(ju)形式,包括文(wen)(wen)本(ben)(ben)和圖像。與主要處(chu)(chu)理(li)文(wen)(wen)本(ben)(ben)內(nei)容的(de)傳(chuan)統語言模(mo)型不同,多(duo)(duo)模(mo)態大(da)語言模(mo)型能夠同時對文(wen)(wen)本(ben)(ben)加(jia)視覺(jue)類內(nei)容進(jin)行(xing)分析和生成(cheng)。

也就是(shi)說,這類模(mo)型(xing)可(ke)以解(jie)釋圖(tu)像、理(li)解(jie)上(shang)下文并生成包含文本和視覺輸入的響應(ying)結果。多模(mo)態(tai)大(da)模(mo)型(xing)還擁有極高(gao)的通用(yong)性,適用(yong)于從自然語言理(li)解(jie)到圖(tu)像解(jie)釋的諸(zhu)多應(ying)用(yong),借此(ci)提供更廣泛的信息處理(li)能力。

報道(dao)指出,“這些模型能(neng)夠處理圖像和文本(ben),例如(ru)通(tong)過(guo)查看用戶繪制的(de)網(wang)站外觀草圖來(lai)生成網(wang)站構建代(dai)碼,或者根據文本(ben)分析結果輸出可(ke)視(shi)化圖表。如(ru)此(ci)一來(lai),普(pu)通(tong)用戶也能(neng)快速理解內容含義,不(bu)必再向擁(yong)有技術背景的(de)工程師們求助。”

OpenAI 首席執行(xing)官 Sam Altman 在最近(jin)的采訪中表(biao)示,盡管 GPT-5 尚未出現,但(dan)他們(men)正計劃(hua)對 GPT-4  進行(xing)各種(zhong)增強。而開放多模態支(zhi)持功能,也(ye)許就是這項計劃(hua)的一(yi)部分。

在上周接受《連(lian)線》采訪時(shi),谷歌(ge)(ge) CEO 桑(sang)達爾·皮查伊表(biao)達了他對于(yu)谷歌(ge)(ge)當前(qian) AI 江(jiang)湖地位的(de)(de)(de)信(xin)心,強調其(qi)仍掌握(wo)著技術領先優勢、并在創新與(yu)責任方面求取(qu)平衡的(de)(de)(de)審慎(shen)戰略。他也對 OpenAI ChatGPT 的(de)(de)(de)深(shen)遠意義(yi)表(biao)示認可,稱贊其(qi)擁(yong)有(you)良好(hao)的(de)(de)(de)產品 - 市場契(qi)合度(du)、讓用戶對 AI 技術做好(hao)了準備。但(dan)他同時(shi)強調,谷歌(ge)(ge)在產品信(xin)任和負責態度(du)方面會采取(qu)更加謹慎(shen)的(de)(de)(de)立(li)場。

參考鏈(lian)接:

//the-decoder.com/openai-releases-new-language-model-instructgpt-3-5/

//www.theinformation.com/articles/openai-hustles-to-beat-google-to-launch-multimodal-llm

//aibeat.co/openai-multimodal-llm-gpt-vision-google/

熱門文章
OPPO不甘心將重啟造芯計劃?
2023-09-20
X