當(dāng)前熱點(diǎn)-GAN卷土重來:10億參數(shù)的GigaGAN效果堪比擴(kuò)散模型
2023-04-22 19:46:41 來源:程序員客棧
【資料圖】
點(diǎn)藍(lán)色字關(guān)注“機(jī)器學(xué)習(xí)算法工程師”
設(shè)為星標(biāo),干貨直達(dá)!
自從 DALL·E 2 之后,在圖像生成方面擴(kuò)散模型替代GAN成了主流方向,比如開源的文生圖模型stable diffusion也是基于diffusion架構(gòu)的。近日, Adobe研究者在論文Scaling up GANs for Text-to-Image Synthesis提出了參數(shù)量為10億(1B)的GAN模型:GigaGAN,其在文生圖效果上接近擴(kuò)散模型效果,而且推理速度更快,生成512x512大小圖像只需要0.13s,生成16M像素圖像只需要 3.66s。同時(shí)GigaGAN也支持latent空間的編輯功能,比如latent插值,風(fēng)格混合,以及向量運(yùn)算等。