近日,社交(jiao)媒體公司 Snap 旗(qi)下的 Snap Research 部門(men)宣布,他們(men)研發出了(le)一種新的技術(shu),可以讓 AI 生成(cheng)圖像的速度(du)大幅提升,從原來的幾分鐘(zhong)甚至幾小(xiao)時縮(suo)短(duan)到不到兩秒(miao)。

這種新(xin)的(de)技術被稱為 SnapFusion,它可(ke)以(yi)根(gen)據用戶輸入的(de)文字(zi)提示,快(kuai)速生成清(qing)晰的(de)圖(tu)像。Snap 公(gong)(gong)司(si)表示,這是(shi)目前學術界公(gong)(gong)布的(de)最(zui)快(kuai)的(de)速度(du)。該(gai)公(gong)(gong)司(si)在博客文章中(zhong)介紹了這項(xiang)技術的(de)原理和優勢:
Snap Research 通(tong)過(guo)優化網絡結構和去噪(zao)過(guo)程,使(shi)得(de)模型非常高效,同時保持了圖像質量。因此,現在可以運行模型來(lai)根(gen)據文字(zi)提(ti)示生成圖像,并在移動設備上幾秒鐘內得(de)到(dao)結果,而不是像其(qi)他研究那樣需要等待很長時間。
Snap Research 還發布(bu)了一篇論文(PDF 格式(shi)),詳(xiang)細(xi)介(jie)紹了 SnapFusion 技術,并(bing)展示了一些由該技術生成的(de)藝(yi)術作品。論文中指出(chu):
具體來說,我(wo)們提(ti)出了一個(ge)高效的 UNet,通過識別(bie)原始模型的冗余(yu),并通過數據(ju)蒸餾減少圖像解碼器的計算。此外,我(wo)們通過探索訓(xun)練策略和引入無分類器指導的正則化(hua),增強(qiang)了步驟蒸餾。
不(bu)過(guo),這項新(xin)(xin)技(ji)術還需要一(yi)段時間才(cai)能面(mian)向廣大(da)用戶開放。但是(shi) Snap 公司表示(shi),它“有潛力在未來為移動(dong)設備(bei)上的(de)高質量 AI 生(sheng)成圖像體驗(yan)提供強大(da)的(de)動(dong)力”。IT之家猜(cai)測(ce),這項新(xin)(xin)技(ji)術很可(ke)能會添加到(dao) Snapchat 移動(dong)應(ying)用程(cheng)序(xu)的(de)未來更新(xin)(xin)中(zhong)。