国产人妻精品区一区二区,国产农村妇女毛片精品久久,JAPANESE日本丰满少妇,日本公妇理伦a片,射精专区一区二区朝鲜

ChatGPT-4震撼發布!能識圖和邏輯推理,靠自己考上斯坦福
作者 | 物(wu)聯網(wang)智庫2023-03-15

一(yi)覺醒來,GPT-4突然間就來了,而這距離ChatGPT的發(fa)布,才僅僅過去了四個多月(yue)。

此前,曾傳聞(wen)GPT-4有100萬億參數,比現在的(de)(de)ChatGPT強(qiang)大500多倍,不過這一說法(fa)很(hen)快被辟謠。近(jin)日,OpenAI的(de)(de)CTO曾經對媒體表(biao)示(shi),讓大家“少(shao)一些關于(yu)GPT-4的(de)(de)炒作會(hui)更好”,而從今天(tian)發布的(de)(de)GPT-4來看(kan),這句話多少(shao)帶點欲揚先抑的(de)(de)意(yi)味。在發布的(de)(de)博文(wen)中,OpenAI這樣表(biao)示(shi):

GPT-4是(shi)OpenAI努(nu)力(li)(li)擴展(zhan)深度學習(xi)的(de)最新里程(cheng)碑,它是(shi)一個大型多(duo)模(mo)態模(mo)型(接受圖像和(he)文本(ben)輸入,提供(gong)文本(ben)輸出),雖(sui)然(ran)在(zai)許多(duo)現(xian)實世界場(chang)景中的(de)能力(li)(li)不如人類(lei),但在(zai)各種(zhong)專業和(he)學術基(ji)準上表現(xian)出人類(lei)水平。

GPT-4都強在哪里?

加入圖(tu)片(pian)(pian)(pian)識別功(gong)(gong)能和(he)外(wai)界(jie)(jie)此前(qian)的(de)(de)猜測一樣(yang),GPT-4是(shi)一個多模(mo)態大型語言模(mo)型,不(bu)再僅僅處理文本數據,對圖(tu)片(pian)(pian)(pian)也有了理解能力。但相比(bi)于此前(qian)各大科技公司推出(chu)的(de)(de)多模(mo)態模(mo)型,GPT-4可(ke)以(yi)說(shuo)是(shi)遙遙領先。雖然官方表示,GPT-4現在只開放了文字輸(shu)入的(de)(de)功(gong)(gong)能,圖(tu)片(pian)(pian)(pian)輸(shu)入功(gong)(gong)能還在加緊開發(fa)中。但在官方的(de)(de)文章中,OpenAI給出(chu)了幾個使用范(fan)例,如(ru)說(shuo)明(ming)圖(tu)片(pian)(pian)(pian)的(de)(de)內容(rong)、分析圖(tu)表、解答圖(tu)片(pian)(pian)(pian)內的(de)(de)考題、找出(chu)圖(tu)片(pian)(pian)(pian)不(bu)尋常的(de)(de)原因(yin)等,已(yi)經讓人大開眼界(jie)(jie)。

圖片識別功能

在OpenAI官方發布的(de)視(shi)頻中(zhong),GPT-4通過識(shi)(shi)別(bie)上(shang)圖(tu)中(zhong)隨便畫(hua)出(chu)的(de)草圖(tu),就識(shi)(shi)別(bie)出(chu)了(le)這(zhe)是一(yi)個(ge)關于網站的(de)草圖(tu),然后“順手”生成了(le)建成這(zhe)個(ge)網頁的(de)全(quan)部代碼,再然后...一(yi)個(ge)網站就這(zhe)樣建成了(le)。

網頁代碼編寫

強大的推理能力

還有一個官方(fang)示例也值得(de)一提,當被問到(dao)下圖(tu)的(de)(de)笑點在哪里時(shi)(shi),GPT-4的(de)(de)回答更(geng)是讓人驚(jing)嘆:“這(zhe)(zhe)張圖(tu)片中的(de)(de)幽默來(lai)自于將過時(shi)(shi)的(de)(de)大(da)(da)型(xing) VGA 連接器插入小型(xing)現代智能手機充電端(duan)口的(de)(de)荒謬(miu)做法(fa)”,從這(zhe)(zhe)一回答中可以看出,GPT-4所具(ju)備的(de)(de)推理能力已經有了大(da)(da)幅(fu)度提高。

ChatGPT-4震撼發布!能識圖和邏輯推理,靠自己考上斯坦福

一直以來,人工智能雖然表現出了強大的(de)能力,但邏輯(ji)推理(li)依然是(shi)人類區(qu)別于AI的(de)最顯著特征(zheng),而GPT-4表現出的(de)邏輯(ji)和推理(li)能力,需要所有人開始重新思考人類區(qu)別于AI的(de)本質到底是(shi)什么(me)。

ChatGPT-4震撼發布!能識圖和邏輯推理,靠自己考上斯坦福

支持更長的(de)輸入(ru)和(he)輸出相(xiang)比于ChatGPT,GPT-4可(ke)接受的(de)文字(zi)輸入(ru)長度增加到(dao)3.2萬(wan)個Token,約2.4萬(wan)單詞,同(tong)時也支持更長的(de)輸出,大約能(neng)(neng)處理長達25000字(zi)的(de)文本(ben),這使得(de)更多的(de)應用場景(jing)變(bian)為可(ke)能(neng)(neng),例如長文本(ben)的(de)創建(jian)、超長對(dui)話(hua)和(he)文檔的(de)搜(sou)尋和(he)分析等,僅需一(yi)次對(dui)話(hua),就足夠寫一(yi)部劇本(ben)或(huo)者短篇小說了。

字數限制對比

考(kao)(kao)(kao)(kao)試(shi)(shi)(shi)能(neng)(neng)力超(chao)過90%人類(lei)對于GPT-4來說,最強的(de)并不是視覺能(neng)(neng)力的(de)加入,因為很多(duo)的(de)多(duo)模態模型早就已經做出(chu)了類(lei)似(si)的(de)功(gong)(gong)能(neng)(neng),其最亮(liang)眼的(de)功(gong)(gong)能(neng)(neng)是它所表現出(chu)的(de)推理能(neng)(neng)力,在(zai)(zai)GRE、SAT和(he)(he)美國(guo)法學(xue)院考(kao)(kao)(kao)(kao)試(shi)(shi)(shi)等我們較為熟悉的(de)美國(guo)考(kao)(kao)(kao)(kao)試(shi)(shi)(shi)中(zhong)(zhong),GPT-4的(de)得分(fen)(fen)(fen)幾乎(hu)和(he)(he)人類(lei)考(kao)(kao)(kao)(kao)生(sheng)沒有區別了,其中(zhong)(zhong),GPT-4在(zai)(zai)模擬律師(shi)考(kao)(kao)(kao)(kao)試(shi)(shi)(shi)的(de)成(cheng)績在(zai)(zai)考(kao)(kao)(kao)(kao)生(sheng)中(zhong)(zhong)排(pai)名(ming)前10%左右(you)(you),在(zai)(zai)SAT閱讀考(kao)(kao)(kao)(kao)試(shi)(shi)(shi)中(zhong)(zhong)排(pai)名(ming)前7%左右(you)(you),在(zai)(zai)SAT數學(xue)考(kao)(kao)(kao)(kao)試(shi)(shi)(shi)中(zhong)(zhong)排(pai)名(ming)前11%左右(you)(you)。在(zai)(zai)GRE考(kao)(kao)(kao)(kao)試(shi)(shi)(shi)中(zhong)(zhong)的(de)數學(xue)部(bu)分(fen)(fen)(fen),滿分(fen)(fen)(fen)是170分(fen)(fen)(fen),GPT-4獲得163分(fen)(fen)(fen),而上一(yi)代(dai)GPT-3.5得分(fen)(fen)(fen)為147分(fen)(fen)(fen),在(zai)(zai)GRE語言部(bu)分(fen)(fen)(fen),GPT-4得分(fen)(fen)(fen)為169分(fen)(fen)(fen),GPT-3.5得分(fen)(fen)(fen)為154分(fen)(fen)(fen)。

也就(jiu)是(shi)說,GPT-4已經可以靠自己(ji)考上斯坦福大學。

從下圖中也(ye)可以看出,GPT-4相比于GPT-3.5,在多項專(zhuan)業考試(shi)中都(dou)有了巨大的(de)提(ti)升(綠色部分(fen)為GPT-4提(ti)升的(de)部分(fen))。不(bu)過,OpenAI官方也(ye)警告說(shuo),新版本還(huan)不(bu)完美,在許多情況(kuang)下,它的(de)能力不(bu)如人類。

ChatGPT-4震撼發布!能識圖和邏輯推理,靠自己考上斯坦福

支持更(geng)多語(yu)(yu)言(yan)(yan)許多現有的機器翻(fan)譯的基準(zhun)測(ce)試(shi)都(dou)是用英語(yu)(yu)編寫的。而為了初步了解 GPT-4 在其(qi)(qi)他(ta)語(yu)(yu)言(yan)(yan)上的能力,OpenAI的研(yan)究(jiu)團隊還使用Azure Translate將MMLU基準(zhun)翻(fan)譯成多種語(yu)(yu)言(yan)(yan),這(zhe)套基準(zhun)涵蓋(gai)了57個主題的14000個多項選擇題 ,在測(ce)試(shi)的26種語(yu)(yu)言(yan)(yan)的24種中,GPT-4全部(bu)優于GPT-3.5和其(qi)(qi)他(ta)大語(yu)(yu)言(yan)(yan)模(mo)型(xing)。

ChatGPT-4震撼發布!能識圖和邏輯推理,靠自己考上斯坦福

以上(shang)這些也僅僅只(zhi)是OpenAI官方(fang)示例的一小(xiao)部分(fen),OpenAI的總裁(cai)和聯合創始人還展示了GPT-4有(you)關總結(jie)文章、寫代碼、報(bao)稅、寫詩等一系列能(neng),可以說GPT-3.5做不(bu)到的, GPT-4大都(dou)可以輕松解決。

微軟新必應早已用上GPT-4

GPT-4發布之(zhi)后,微(wei)軟(ruan)(ruan)在(zai)第(di)一時間表示:“如果你在(zai)過去五(wu)周(zhou)內的(de)(de)(de)任何時候使用(yong)(yong)過新的(de)(de)(de) Bing 預覽版,你就已經(jing)提前了(le)(le)解了(le)(le) OpenAI 最新模型的(de)(de)(de)強大(da)功(gong)能”。是(shi)的(de)(de)(de),新版必應(ying)搜索早已經(jing)用(yong)(yong)上了(le)(le)GPT-4,在(zai)過去五(wu)周(zhou)中,很(hen)多人體驗的(de)(de)(de)必應(ying)就是(shi)GPT-4加強過的(de)(de)(de),只不(bu)過僅僅開放使用(yong)(yong)了(le)(le)文字(zi)能力而已。雖(sui)然微(wei)軟(ruan)(ruan)沒有用(yong)(yong)全(quan)球首發的(de)(de)(de)字(zi)眼來(lai)描述,畢竟(jing)微(wei)軟(ruan)(ruan)在(zai)OpenAPI上已經(jing)投(tou)入(ru)了(le)(le)130億(yi)美元(yuan)(約(yue)合(he)人民(min)幣900億(yi)元(yuan)),換(huan)來(lai)的(de)(de)(de)這樣(yang)的(de)(de)(de)待遇也是(shi)情理之(zhi)中。

微軟bing

在(zai)搜索上,微軟的(de)必應長期以來都無(wu)法跟(gen)谷(gu)歌(ge)相競爭,市(shi)場(chang)份額(e)更(geng)是差(cha)了(le)一個量級,但是隨著ChatGPT的(de)問世,微軟率先接入使用,CEO納德拉(la)表示他們(men)的(de)搜索已經優于谷(gu)歌(ge)了(le)。而這次GPT-4也被曝用在(zai)了(le)必應搜索中,不知道谷(gu)歌(ge)方面是否依然(ran)還能“坐懷不亂”。

可以說,微軟是ChatGPT和GPT-4的(de)最大贏家。在過(guo)去(qu)的(de)兩年里,OpenAI重建了(le)(le)整個深(shen)度(du)學習(xi)堆棧(zhan),并(bing)利用微軟的(de)Azure設(she)計(ji)(ji)了(le)(le)一(yi)臺超(chao)(chao)級(ji)計(ji)(ji)算(suan)機,以便于應(ying)對他們超(chao)(chao)高的(de)工作負載,通過(guo)此(ci)前獲得的(de)經(jing)驗,GPT-4才(cai)能(neng)快速而(er)穩定的(de)完成了(le)(le)GPT-4的(de)訓練,也為微軟的(de)云服(fu)務贏得了(le)(le)更(geng)多的(de)業務。

如何才能用上GPT-4

目前,如果想要體(ti)驗GPT-4的強大功能,有三(san)種方式可以(yi)選擇:

1.花費(fei)每(mei)月20美元訂閱ChatGPT Plus直接體驗地址://chat.openai.com/chat

2.加入等候列表(biao)排隊(dui)申請內測,等待API開放地址://openai.com/waitlist/gpt-4-api

3.申請加入開源的OpenAI Evals,共同參與改進(jin)GPT-4的效果地(di)址:github.com/openai/evals

同時,OpenAI表(biao)示已經與許多(duo)(duo)公司進(jin)行了(le)深度(du)合作,將(jiang)GPT-4并入它們的(de)產品中,包括Duolingo,Stripe,Khan Academy等,有科學(xue)上(shang)(shang)網方式(shi)的(de)用戶,未(wei)來(lai)也可以在更多(duo)(duo)的(de)產品中直接體驗到GPT-4。當前,使用GPT-4的(de)定(ding)價是每(mei)(mei)1k prompt tokens 0.03美(mei)元(yuan),每(mei)(mei)1k completion tokens 0.06美(mei)元(yuan),默認速(su)率(lv)限制(zhi)在每(mei)(mei)分(fen)(fen)鐘(zhong)40k tokens和每(mei)(mei)分(fen)(fen)鐘(zhong)200個請求,價格雖(sui)然有所上(shang)(shang)升,但相比于ChatGPT來(lai)說(shuo),返回文本(ben)的(de)速(su)度(du)也有了(le)大(da)幅度(du)提高。

此(ci)(ci)外,OpenAI表(biao)示, 在(zai)比(bi)(bi)(bi)較簡單的(de)對(dui)話(hua)中,GPT-4的(de)表(biao)現和之(zhi)前的(de)ChatGPT相(xiang)比(bi)(bi)(bi)不會差太多,但在(zai)復(fu)雜(za)的(de)問題上(shang),答案的(de)合理性(xing)(xing)、正確性(xing)(xing)等方面都(dou)更加優(you)秀。因為(wei)GPT-4至少(shao)經過了6個月的(de)“安全訓練”,目前相(xiang)比(bi)(bi)(bi)于(yu)(yu)GPT-3.5,有(you)82%的(de)可能(neng)(neng)性(xing)(xing)不會對(dui)不允許(xu)的(de)內(nei)容進行回應,40%的(de)可能(neng)(neng)性(xing)(xing)會提(ti)供基于(yu)(yu)事實的(de)回應。也就(jiu)是說(shuo),相(xiang)比(bi)(bi)(bi)于(yu)(yu)此(ci)(ci)前對(dui)于(yu)(yu)某些問題一本(ben)正經的(de)胡說(shuo)八道,GPT-4“幻想”出(chu)來的(de)內(nei)容的(de)少(shao)了很多,但依然有(you)可能(neng)(neng)會出(chu)現。因此(ci)(ci),強烈建(jian)議在(zai)使用GPT-4的(de)服務時(shi)(shi),如果是重要性(xing)(xing)較高的(de)內(nei)容,最好還是把GPT-4作為(wei)輔助,同時(shi)(shi)加以人工校(xiao)對(dui)。

寫在最后

這次,OpenAI并沒(mei)有(you)公布(bu)具體模型(xing)大(da)小的(de)細節(jie),也沒(mei)有(you)公布(bu)用(yong)來(lai)訓練模型(xing)的(de)硬件(jian),理由是出于“競(jing)爭原因”。沒(mei)有(you)了(le)數(shu)據、模型(xing)和算(suan)力(li)的(de)對外(wai)參考,OpenAI已(yi)經構建起了(le)自己更(geng)寬更(geng)深的(de)“護城河”能力(li),也側面說(shuo)明了(le)新一輪的(de)科技軍(jun)備競(jing)賽已(yi)經打響(xiang)。

當(dang)國(guo)內各大企業還在搶發(fa)“中(zhong)國(guo)版(ban)ChatGPT”的(de)(de)時候(hou),GPT-4的(de)(de)突(tu)然(ran)發(fa)布,讓復現GPT-3.5和ChatGPT的(de)(de)各類(lei)工作都在瞬間黯然(ran)失色(se)。在這個時候(hou),不僅(jin)谷(gu)歌等(deng)科(ke)技大廠需要思(si)考(kao)(kao)為什么(me)會落后于僅(jin)有三百多名員工的(de)(de)OpenAI,每個人也都需要思(si)考(kao)(kao)未來的(de)(de)創新到(dao)底是什么(me)樣子。

熱門文章
3月14日,在Embedded World 2023德國紐倫堡國際嵌入式系統展會上,全球領先的無線通信模組及解決方案提供商美格智能重磅推出全新一代5G車規級C-V2X MA925系列模組。此系列模組基
2023-03-15
X