OpenAI 学会“你说我画”:参数缩水 2/3 性能却更强,还 get 局部编辑新技能

OpenAI 刚刚推出了一个新的文本生成图像模型,名叫 GLIDE

OpenAI 学会“你说我画”:参数缩水 2/3 性能却更强,还 get 局部编辑新技能

相比今年年初诞生的大哥 DALL・E,它只有 35 亿参数(DALL・E 有 120 亿)

规模虽然小了,质量却不赖。

大家仔细看这效果,“使用计算器的刺猬”、“星空下的狐狸”、“彩色玻璃窗风格的熊猫吃竹子”、“太空升降舱蜡笔画”:

OpenAI 学会“你说我画”:参数缩水 2/3 性能却更强,还 get 局部编辑新技能

是不是很像样儿?

一位码农兼艺术家的网友则形容它“和真的难以区分”。

OpenAI 学会“你说我画”:参数缩水 2/3 性能却更强,还 get 局部编辑新技能

GLIDE 在人类评估员的打分中,确实 PK 掉了使用 CLIP 给图片排序的 DALL・E。

OpenAI 学会“你说我画”:参数缩水 2/3 性能却更强,还 get 局部编辑新技能

最有趣的是,这个 GLIDE 似乎具有“智力”—— 会否决你画出八条腿的猫的主意,也不认为老鼠可以捕食狮子。

OpenAI 学会“你说我画”:参数缩水 2/3 性能却更强,还 get 局部编辑新技能

OpenAI 岁末新作 GLIDE

GLIDE 全称 Guided Language to Image Diffusion for Generation and Editing,是一种扩散模型 (diffusion model)

扩散模型最早于 2015 提出,它定义了一个马尔可夫链,用于在扩散步骤中缓慢地向数据添加随机噪声,然后通过学习逆转扩散过程从噪声中构建所需的数据样本。

相比 GAN、VAE 和基于流的生成模型,扩散模型在性能上有不错的权衡,最近已被证明在图像生成方面有很大的潜力,尤其是与引导结合来兼得保真度和多样性。

扩散模型与其他三种生成模型的对比

▲ 扩散模型与其他三种生成模型的对比

研究人员训练了一个 64×64 分辨率的文本条件扩散模型,参数 35 亿;以及一个 256×256 分辨率的文本条件上采样扩散模型,参数 15 亿。

模型有两种引导形式来获得更好的生成效果:无分类器引导(classifier-free guidance)和 CLIP 引导

对于 CLIP 引导,他们还训练了一个噪声感知的 64×64 ViT-L CLIP 模型 (vit)。

模型采用了 SOTA 论文《Improved Denoising Diffusion Probabilistic Models》(改进的去噪扩散概率模型)的架构,使用文本条件信息对其进行增强。

对于每个带噪图像 xt 和相应的提示文本 caption,该模型预测出 p (xt-1|xt,caption)。

为了对文本进行条件处理,模型还将文本编码为 K 个 token 的序列,并将这些 token 馈送到 Transformer 中,此 Transformer 的输出有两个用处:

1、在 ADM 模型中使用最终 token embedding 来代替 class embedding;

2、token embedding 的最后一层在整个 ADM 模型中分别映射每个注意层的维度,然后连接到每个层的注意上下文。

研究人员在与 DALL・E 相同的数据集上训练 GLIDE,batch size 为 2048,共经过 250 万次迭代;对于上采样模型,则进行了 batch size 为 512 的 160 万次迭代。

这些模型训练稳定,总训练计算量大致等于 DALL・E。

在初始训练完成之后,研究人员还微调了基础模型以支持无条件图像生成。

训练过程与预训练完全一样,只是将 20% 的文本 token 序列替换为空序列。这样模型就能既保留文本条件生成的能力,也可以无条件生成。

为了让 GLIDE 在图像编辑任务中产生不必要的伪影,研究人员在微调时将 GLIDE 训练样本的随机区域擦除,其余部分与掩码通道一起作为附加条件信息输入模型。

OpenAI 学会“你说我画”:参数缩水 2/3 性能却更强,还 get 局部编辑新技能

相比 DALL・E,GLIDE 的效果更逼真

  • 定性实验

研究人员首先比较了 GLIDE 两种不同的引导策略:CLIP 引导和无分类器引导。

分别用 XMC-GAN、DALL・E(使用 CLIP 重排 256 个样本,从中选择最佳结果)和 CLIDE 模型(CLIP 引导 / 无分类器引导)在相同的文本条件下生成了一些结果。

CLIDE 模型的结果未经挑选。

OpenAI 学会“你说我画”:参数缩水 2/3 性能却更强,还 get 局部编辑新技能

可以发现,无分类器引导的样本通常比 CLIP 引导的看起来更逼真,当然,两者都胜过了 DALL・E。

对于复杂的场景,CLIDE 可以使用修复功能进行迭代生成:比如下图就是先生成一个普通客厅,再加画、加茶几、加花瓶……

OpenAI 学会“你说我画”:参数缩水 2/3 性能却更强,还 get 局部编辑新技能

此外,CLIDE 还可以在 SDedit 模型上利用草图与文本相结合的方式,对图像进行更多受控修改。

OpenAI 学会“你说我画”:参数缩水 2/3 性能却更强,还 get 局部编辑新技能

  • 定量实验

研究人员首先通过衡量质量和保真度的帕累托边界(Pareto frontier)来评估无分类引导和 CLIP 引导之间的差异。

OpenAI 学会“你说我画”:参数缩水 2/3 性能却更强,还 get 局部编辑新技能

在前两组曲线中,可以发现无分类器引导几乎都是最优的 —— 不管是在准确率 / 召回率上,还是在 IS / FID 距离上。

而在绘制 CLIP 分数与 FID 的关系时,出现了完全相反的趋势。

研究人员假设这是 CLIP 引导正在为评估 CLIP 模型寻找对抗性示例,而并非真正优于无分类器引导。为了验证这一假设,他们聘请了人工评估员来判断生成图像的质量。

在这个过程中,人类评估者会看到两个 256×256 的图像,选择哪个样本更好地匹配给定文本或看起来更逼真。如果实在分辨不出,每个模型各得一半分数。

结果如下:

OpenAI 学会“你说我画”:参数缩水 2/3 性能却更强,还 get 局部编辑新技能

无分类器引导产生了更符合相应提示的高质量样本

同时,研究人员也将 CLIDE 与其他生成模型的质量进行了评估:CLIDE 获得了最有竞争力的 FID 分数。

OpenAI 学会“你说我画”:参数缩水 2/3 性能却更强,还 get 局部编辑新技能

再将 GLIDE 与 DALL-E 进行人工评估。

包含三种比法:两种模型都不使用 CLIP 重排序;仅对 DALL・E 使用 CLIP 重排序;对 DALL-E 使用 CLIP 重排序,并通过 DALL-E 使用的离散 VAE 映射 GLIDE 样本。

结果是不管哪种配置,人类评估员都更倾向于 GLIDE 的结果(每项第一行代表 GLIDE)。

OpenAI 学会“你说我画”:参数缩水 2/3 性能却更强,还 get 局部编辑新技能

当然,说这么多,GLIDE 也有它的不足,就如开头的例子,它没法画出不合常理的“八条腿的猫”,也就是有智力但缺乏想象力

此外,未优化的 GLIDE 需要 15 秒才能在单张 A100 GPU 上生成一张图像,这比 GAN 慢多了。

最后,po 一张我们在官方发布的 Colab 链接上亲手试的一张效果,还凑合(an illustration of a rabbit,demo 上的模型比较小):

OpenAI 学会“你说我画”:参数缩水 2/3 性能却更强,还 get 局部编辑新技能

论文地址:

https://arxiv.org/abs/2112.10741

GitHub 地址 (是一个在过滤后的数据集上训练的小模型):

https://github.com/openai/glide-text2im

Colab 试玩:

https://colab.research.google.com/github/openai/glide-text2im/blob/main/notebooks/text2im.ipynb#scrollTo=iuqVCDzbP1F0

原创文章,作者:3628473679,如若转载,请注明出处:https://blog.ytso.com/216833.html

(0)
上一篇 2021年12月23日
下一篇 2021年12月23日

相关推荐

发表回复

登录后才能评论