最近,脑洞大开的外国人用 DALL·E 和 Imagen 对“中西结合”玩得不亦乐乎。

继“虎戴VR”之后,我国古代军事家孙武又成了新的整活目标。

测试者给DALL·E出了一道题:


(资料图)

让孙武玩《魔兽争霸II》游戏。

谁能想到,公元2022年,春秋时期的孙子竟在电脑上玩起了《魔兽争霸II》。

整幅画面居然挺和谐,还颇具 东方味 。

这应该是因为DALL·E跟据输入了限定词:Oriental Painting (东方绘画) ,确定了画风。

不过,这怎么看出来他玩得的就是《魔兽争霸II》?恐怕还需各位发挥一下想象力了。 (手动狗头)

对于输入的同一段文字,DALL·E还给出了其他版本。

这幅图中,还体现出孙子军事家的特征。

坐在电脑前玩游戏或许还不够刺激,再把孙武设定为魔兽世界里的一个角色试试:

DALL·E不仅完成了,还还对图像进行了3D渲染。 (虽然些图片并非都有魔兽游戏的界面)

网友惊叹:这个AI居然知道魔兽世界的角色长什么样!

下面说说这个“AI画师”是怎么进行创作的。

DALL·E工作原理

DALL·E本质上就是一个被120亿个参数重新训练过的GPT-3。

其 核心 模块是OpenAI的 CLIP 。

这是一个在各种图像、文本上训练的神经网络,负责给输入图像打分并重新排序。

其实,DALL·E在“创作”过程中生成了大量的图片。在这些图像中,和文本匹配度越高的,CLIP给的评分越高。

至于CLIP怎么分析图文匹配度?这离不开其将图片和文字“融合”理解的能力。

而这个能力归功于它的多模态神经元,具有和人脑类似的工作机制: 能够对文字和图像中的相同意思同时作出响应 。

最终,评分前几名的图片会作为输出呈现出来。 (这解释了为什么输入同一段文字可以生成多张图像)

有人提出,不妨将CLIP和GAN结合起来,实现更强的功能:

让CLIP计算出图像与文字描述的相似度得分,然后反馈给GAN,让GAN以提升分数为目标不断迭代。

二代DALL·E结合了CLIP和扩散模型两种技术的特点。

其中,扩散模型在牺牲多样性的前提下,可以大大提升生成图像的逼真度。

CLIP文本嵌入首先会被传送给自然回归或者扩展先验,以产生一个图像嵌入。

然后,这个嵌入会被用来调节扩展编码器,以生成最终的图像。也就是说,图像生成是在“扩散”过程中完成的。

和初代相比,DALL·E 2生成图像的时间更短,图像分辨率更高。

此外,DALL·E 2在“绘图”过程中还会考虑阴影、反射、纹理等因素的变化。

例如:在左图的位置“1”放一个沙发,DALL·E 2会根据已有信息分析光线方向,并画出阴影。

DALL·E的“奇葩”作品欣赏

DALL·E 2官方在Instagram上展出了许多程序员和工程师们创作的“奇葩”画像。

有古罗马版蜘蛛侠。 (第二张真是绝了)

Spider-Man from Ancient Rome

耶稣骑恐龙画像。 (耶稣看了都要直呼好家伙)

Jesus Christ wielding a samurai sword and riding on the back of a velociraptor, painting

小动物穿皮衣、戴墨镜的4K高清图。 (这年头,看动物都觉得眉清目秀)

A photo of a cool

wearing sunglasses and a leather jacket, 4k

一只运动喵在新闻发布会上向记者解释它的最新丑闻的照片。

超现实主义作品。

Remembrance of nostalgia, surrealist painting

以及赛博朋克风爱情小说封面。 (那小说内容是不是可以 直接 让GPT-3写了?)

The cover of a cyberpunk romance novel

除此之外,还有利用文字差异,对iPhone复古化的动图。

One More Thing:用DALL·E改商标

除了用DALL·E 2画画外,还有一位研究员Janelle Shane使用这个工具试着为各大公司设计新商标。

来看看有没有你中意的吧——

DALL·E 2必胜客设计的LOGO长这样:

下面是DALL·E 2为汉堡王设计的LOGO:

还有为NASA设计的LOGO:

目前DALL·E还在大量数据测试训练中,且存在一定的道德挑战等因素,尚未正式向公众开放。

官方表示,有兴趣尝试者,可以报名并等待邀请。

不过大伙儿可以去DALL·E官网选择给定的关键词来玩玩。

例如,选择:“一个宇航员”、“在太空中的热带度假村躺着”,然后确定画风:“逼真”。

DALL·E就能根据命题画出几幅作品。

别说,还真有“太空度假村”那味儿了。

如果让你把天马行空的想法放进一张图里,你打算怎么创作?

推荐内容