前言
自从前段时间偶然间被当下 AI 绘画的水平震住之后 (超越一切的 AI 作画神器, 和它创作的 234 个盔甲美女未来战士) , 作者深感当今 AI 绘画的飞速进展或许已远超所有人的预期.而这里的前因后果, 包括 AI 绘画的历史, 以及最近的突破性进展, 值得好好和大伙儿梳理和分享一下.因此有了本文.
本文分为如下几小节:
1、2022, 进击的 AI 绘画
2、AI 绘画的历史
3、AI 绘画何以突飞猛进
4、顶级 AI 绘画模型的 PK
5、AI 绘画的突破对人类意味着什么
2022, 进击的 AI 绘画
今年以来, 输入文本描述自动生成图片的 AI 绘画神器突然雨后春笋的冒了出来.
首先是 Disco Diffusion.
Disco Diffusion 是在今年 2 月初开始爆红的一个 AI 图像生成程序,它可以根据描述场景的关键词渲染出对应的图像:
到了今年 4 月, 著名人工智能团队 OpenAI 也发布了新模型 DALL・E 2 代,该名称来源于著名画家达利(Dalí)和机器人总动员(Wall-E), 同样支持从文本描述生成效果良好的图像.
而很多读者对 AI 绘画开始产生特别的关注, 或许是从以下这幅 AI 作品闹出的新闻开始的:
这是一幅使用 AI 绘画服务 MidJourney 生成的数字油画, 生成它的用户以这幅画参加美国科罗拉多州博览会的艺术比赛, 夺得了第一名.这件事被曝光之后引发了网络上巨大的争论至今.
目前 AI 绘画的技术仍在不断变化发展中, 其迭代之快, 完全可以用 “日新月异” 来形容. 即使把今年年初的 AI 绘画和现在相比, 效果也有天壤之别.
在年初的时候, 用 Disco Diffusion 可以生成一些很有氛围感的草图, 但基本还无法生成人脸; 仅仅 2 个月后,DALL-E 2 已经可以生成准确的五官; 现在, 最强大的 Stable Diffusion 在画作的精致程度和作画速度上更是有了一个量级的变化.
AI 绘画这项技术并不是近年才有的, 但是今年以来,AI 产出作品的质量以肉眼可见的速度日益提升, 而效率也从年初的一个小时缩短到现在的十几秒.
在这个变化后面, 究竟发生了什么事情? 就让我们先全面回顾一下 AI 绘画的历史, 再来理解一下, 这一年多来,AI 绘画技术足以载入史册的突破发展.
AI 绘画的历史
AI 绘画的出现时间可能比很多人想象的要早.
计算机是上世纪 60 年代出现的, 而就在 70 年代, 一位艺术家,哈罗德・科恩 Harold Cohen(画家,加利福尼亚大学圣地亚哥分校的教授) 就开始打造电脑程序 “AARON” 进行绘画创作.只是和当下 AI 绘画输出数字作品有所不同,AARON 是真的去控制一个机械臂来作画的.
Harold 对 AARON 的改进一直持续了几十年, 直到他离世.在 80 年代的时候,ARRON”掌握” 了三维物体的绘制;90 年代时,AARON 能够使用多种颜色进行绘画, 据称直到今天,ARRON 仍然在创作.
不过,AARON 的代码没有开源, 所以其作画的细节无从知晓, 但可以猜测,ARRON 只是以一种复杂的编程方式描述了作者 Harold 本人对绘画的理解 — 这也是为什么 ARRON 经过几十年的学习迭代,最后仍然只能产生色彩艳丽的抽象派风格画作,这正是 Harold Cohen 本人的抽象色彩绘画风格. Harold 用了几十年时间, 把自己对艺术的理解和表现方式通过程序指导机械臂呈现在了画布上.
(左:ARRON 和哈罗德.科恩 右: ARRON 在 1992 年的创作作品)
尽管难说 AARON 如何智能, 但作为第一个自动作画且真的在画布上作画的程序, 给予它一个 AI 作画鼻祖的称号, 倒也符合其身份.
2006 年, 出现了一个类似 ARRON 的电脑绘画产品 The Painting Fool. 它可以观察照片, 提取照片里的块颜色信息, 使用现实中的绘画材料如油漆, 粉彩或者和铅笔等进行创作.
以上这两个例子算是比较 “古典” 方式的电脑自动绘画, 有点像一个学步的婴儿, 有一点样子, 但从智能化的角度来看是相当初级的.
而现在, 我们所说的 “AI 绘画” 概念, 更多指的是基于深度学习模型来进行自动作图的计算机程序.这个绘画方式的发展其实是比较晚的.
在 2012 年 Google 两位大名鼎鼎的 AI 大神, 吴恩达和 Jef Dean 进行了一场空前的试验, 联手使用 1.6 万个 CPU 训练了一个当时世界上最大的深度学习网络, 用来指导计算机画出猫脸图片.当时他们使用了来自 youtube 的 1000 万个猫脸图片,1.6 万个 CPU 整整训练了 3 天, 最终得到的模型, 令人振奋的可以生成一个非常模糊的猫脸.
在今天看起来, 这个模型的训练效率和输出结果都不值一提.但对于当时的 AI 研究领域, 这是一次具有突破意义的尝试, 正式开启了深度学习模型支持的 AI 绘画这个 “全新” 研究方向.
在这里我们稍微讲一点技术细节: 基于深度学习模型的 AI 绘画究竟有多麻烦呢, 为什么 2012 年已经很现代水平的大规模计算机集群耗时多天的训练只能得出一点可怜的结果?
读者们或许有个基本概念, 深度学习模型的训练简单说来就是利用外部大量标注好的训练数据输入, 根据输入和所对应的预期输出, 反复调整模型内部参数加以匹配的过程.
那么让 AI 学会绘画的过程, 就是构建已有画作的训练数据, 输入 AI 模型进行参数迭代调整的过程.
一幅画带有多少信息呢? 首先就是长 x 宽个 RGB 像素点. 让计算机学绘画, 最简单的出发点是得到一个输出有规律像素组合的 AI 模型.
但 RGB 像素组合一起的并非都是画作, 也可能只是噪点.一副纹理丰富, 笔触自然的画作有很多笔画完成, 涉及绘画中每一笔的位置, 形状, 颜色等多个方面的参数, 这里涉及到的参数组合是非常庞大的.而深度模型训练的计算复杂度随着参数输入组合的增长而急剧增长… 大家可以理解这个事情为啥不简单了.
在吴恩达和 Jeff Dean 开创性的猫脸生成模型之后,AI 科学家们开始前赴后继投入到这个新的挑战性领域里.在 2014 年,AI 学术界提出了一个非常重要的深度学习模型, 这就是大名鼎鼎的对抗生成网络 GAN (Generative Adverserial Network, GAN).
正如同其名字 “对抗生成”, 这个深度学习模型的核心理念是让两个内部程序 “生成器 (generator)” 和 “判别器 (discriminator)” 互相 PK 平衡之后得到结果.
GAN 模型一问世就风靡 AI 学术界, 在多个领域得到了广泛的应用.它也随即成为了很多 AI 绘画模型的基础框架, 其中生成器用来生成图片, 而判别器用来判断图片质量. GAN 的出现大大推动了 AI 绘画的发展.
但是, 用基础的 GAN 模型进行 AI 绘画也有比较明显的缺陷, 一方面是对输出结果的控制力很弱, 容易产生随机图像, 而 AI 艺术家的输出应该是稳定的.另外一个问题是生成图像的分辨率比较低.
分辨率的问题还好说, GAN 在 “创作” 这个点上还存在一个死结, 这个结恰恰是其自身的核心特点: 根据 GAN 基本架构,判别器要判断产生的图像是否和已经提供给判别器的其他图像是同一个类别的, 这就决定了在最好的情况下, 输出的图像也就是对现有作品的模仿, 而不是创新……
在对抗生成网络 GAN 之外, 研究人员也开始利用其他种类的深度学习模型来尝试教 AI 绘画.
一个比较著名的例子是 2015 年 Google 发布的一个图像工具深梦 (Deep Dream). 深梦发布了一系列画作, 一时吸引了很多眼球。谷歌甚至为这个深梦的作品策划了一场画展.
但如果较真一下, 深梦与其说是 AI 绘画, 更像是一个高级 AI 版滤镜, 其滤镜风格一看上面的作品便可明白.
和作品不尴不尬的 Deep Dream 相比,Google 更靠谱的是 2017 年成千张手绘简笔画图片训练的一个模型,AI 通过训练能够绘制一些简笔画. (Google, 《A Neural Representation of Sketch Drawings》)
这个模型之所以受到广泛关注有一个原因, Google 把相关源代码开源了, 因此第三方开发者可以基于该模型开发有趣的 AI 简笔画应用. 一个在线应用叫做 “Draw Together with a Neural Network” ,随意画几笔,AI 就可以自动帮你补充完整个图形.
值得注意的是, 在 AI 绘画模型的研究过程中, 各互联网大厂成了主力, 除了上述 Google 所做的研究, 比较有名的是 2017 年 7 月,Facebook 联合罗格斯大学和查尔斯顿学院艺术史系三方合作得到的新模型, 号称创造性对抗网络 (CAN, Creative Adversarial Networks)
(Facebook, 《CAN: Creative Adversarial Networks, Generating “Art” by Learning About Styles and Deviating from Style Norms》)
从下图的作品集可以看出,这个创造性对抗网络 CAN 在尝试输出一些像是艺术家作品的图画,它们是独一无二的,而不是现存艺术作品的仿品。
CAN 模型生成作品里所体现的创造性让当时的开发研究人员都感到震惊, 因为这些作品看起来和艺术圈子流行的抽象画非常类似.于是研究人员组织了一场图灵测试,请观众们去猜这些作品是人类艺术家的作品,还是人工智能的创作。
结果,53% 的观众认为 CAN 模型的 AI 艺术作品出自人类之手, 这在历史上类似的图灵测试里首次突破半数.
但 CAN 这个 AI 作画, 仅限于一些抽象表达, 而且就艺术性评分而言, 还远远达不到人类大师的水平.
更不用说创作出一些写实或者具象的绘画作品了, 不存在的.
其实一直到 2021 年初,OpenAI 发布了广受关注的 DALL-E 系统, 其 AI 绘画的水平也就一般, 下面是 DALL-E 画一只狐狸的结果, 勉强可以辨别.
但值得注意的是, 到了 DALL-E 这里, AI 开始拥有了一个重要的能力, 那就是可以按照文字输入提示来进行创作了!
接下来, 我们继续去探求本文一开始提出的问题.不知各位读者是否有同感, 自今年以来,AI 绘画的水平突然大涨, 和之前的作品质量相比有本质的飞跃, 恍然有种一日不见如隔三秋的感觉.
事出必有妖.究竟发生了什么情况? 我们慢慢道来.
AI 绘画何以突飞猛进
在很多科幻电影或剧集里, 往往会有这么一幕, 主角和特别有科幻感的电脑 AI 说了一句话, 然后 AI 生成了一个 3D 影像, 用 VR / AR / 全息投影的方式呈现在主角面前.
抛开那些酷炫的视觉效果包装, 这里的核心能力是, 人类用语言输入, 然后电脑 AI 理解人类的表达, 生成一个符合要求的图形图像, 展示给人类.
仔细一想, 这个能力最基础的形式, 就是一个 AI 绘画的概念嘛. (当然, 从平面绘画到 3D 生成还稍有一点距离, 但相比于 AI 凭空创作一幅具象有意义的绘画作品的难度, 从 2D 图自动生成对应的 3D 模型就不是一个量级上的问题)
所以, 无论是用说话控制, 还是更玄乎的脑电波控制, 科幻影视中的酷炫场景实际上描述了一种 AI 能力, 那就是把 “语言描述” 通过 AI 理解自动变为了图像.目前语音自动识别文本的技术已经成熟至极, 所以这本质上就是一个从文本到图像的 AI 绘画过程.
其实挺牛逼的, 仅靠文字描述, 没有任何参考图片,AI 就能理解并自动把对应内容给画出来了, 而且画得越来越好! 这在昨天还感觉有点远的事情, 现在已真真切切出现在所有人的面前.
这一切到底怎么发生的呢?
首先要提到一个新模型的诞生. 还是前面提到的 OpenAI 团队, 在 2021 年 1 月开源了新的深度学习模型 CLIP(Contrastive Language-Image Pre-Training). 一个当今最先进的图像分类人工智能.
CLIP 训练 AI 同时做了两个事情, 一个是自然语言理解, 一个是计算机视觉分析.它被设计成一个有特定用途的能力强大的工具, 那就是做通用的图像分类,CLIP 可以决定图像和文字提示的对应程度, 比如把猫的图像和 “猫” 这个词完全匹配起来.
CLIP 模型的训练过程, 简单的说, 就是使用已经标注好的 “文字-图像” 训练数据, 一方面对文字进行模型训练, 一方面对图像进行另一个模型的训练, 不断调整两个模型内部参数, 使得模型分别输出的文字特征值和图像特征值能让对应的 “文字-图像” 经过简单验证确认匹配.
关键的地方来了, 其实呢, 之前也有人尝试过训练 “文字-图像” 匹配的模型, 但 CLIP 最大的不同是, 它搜刮了 40 亿个 “文本-图像” 训练数据! 通过这天量的数据, 再砸入让人咂舌的昂贵训练时间,CLIP 模型终于修成正果.
聪明的读者会问, 这么多的 “文本-图像” 标记是谁做的呢?40 亿张啊, 如果都需要人工来标记图像相关文字, 那时间成本和人力成本都是天价.而这正是 CLIP 最聪明的地方, 它用的是广泛散布在互联网上的图片!
互联网上的图片一般都带有各种文本描述, 比如标题, 注释, 甚至用户打的标签, 等等, 这就天然的成为了可用的训练样本. 用这个特别机灵的方式,CLIP 的训练过程完全避免了最昂贵费时的人工标注, 或者说, 全世界的互联网用户已经提前做了标注工作了.
CLIP 功能强大, 但无论如何, 它第一眼看上去, 和艺术创作似乎没啥关系.
但就在 CLIP 开源发布几天后, 一些机器学习工程师玩家就意识到, 这个模型可以用来做更多的事情.比如 Ryan Murdock, 想出了如何把其他 AI 连接到 CLIP 上, 来打造一个 AI 图像生成器. Ryan Murdock 在接受采访时说:“在我把玩它几天后,我意识到我可以生成图像。”
最终他选择了 BigGAN, 一个 GAN 模型的变种, 并将代码发布为 Colab 笔记 The Big Sleep.
(注: Colab Notebook 是 Google 提供的非常方便的 Python Notebook 交互式编程笔记本在线服务, 背后是 Google 云计算的支持.略懂技术的用户可以在一个类似笔记本的 Web 界面上编辑运行 Python 脚本并得到输出.重要的是, 这个编程笔记是可以分享的)
Big Sleep 创作的图画其实略诡异和抽象, 但这是一个很好的开始.
随后, 西班牙玩家 @RiversHaveWings 在此基础上发布了 CLIP+VQGAN 的版本和教程, 这个版本通过 Twitter 被广为转发传播, 引起了 AI 研究界和爱好者们的高度关注. 而这个 ID 背后, 正是现在所被熟知的计算机数据科学家 Katherine Crowson.
在之前,类似 VQ-GAN 这样的生成工具在对大量图像进行训练后,可以合成类似的新图像,然而,如读者还有印象, 前面说过,GANs 类型的模型本身并不能通过文字提示生成新图像, 也不擅长创作出全新的图像内容.
而把 CLIP 嫁接到 GAN 上去生成图像, 这其中的思路倒也简单明了:
既然利用 CLIP 可以计算出任意一串文字和哪些图像特征值相匹配, 那只要把这个匹配验证过程链接到负责生成图像的 AI 模型 (比如这里是 VQ-GAN), , 负责生成图像的模型反过来推导一个产生合适图像特征值, 能通过匹配验证的图像, 不就得到一幅符合文字描述的作品了吗?
有人认为 CLIP+VQGAN 是自 2015 年 Deep Dream 以来人工智能艺术领域最大的创新.而美妙的是,CLIP+VQGAN 对任何想使用它们的人来说都是现成的。按照 Katherine Crowson 的线上教程和 Colab Notebook, 一个略懂技术的用户可以在几分钟内运行该系统.
有意思的是, 上一章也提到, 在同一个时间 (2021 年初), 开源发布 CLIP 的 OpenAI 团队也发布了自己的图像生成引擎 DALL-E. DALL-E 内部也正是用了 CLIP, 但 DALL-E 并不开源!
所以论社区影响力和贡献,DALL-E 完全不能和 CLIP+VQGAN 的开源实现发布相比, 当然, 开源 CLIP 已经是 OpenAI 对社区做出的巨大贡献了.
说到开源贡献, 这里还不得不提到 LAION.
LAION 是一个跨全球的非营利机器学习研究机构,今年 3 月开放了当前最大规模的开源跨模态数据库 LAION-5B,包含接近 60 亿 (5.85 Billion) 个图片-文本对, 可以被用来训练所有从文字到图像的的生成模型,也可以用于训练 CLIP 这种用于给文本和图像的匹配程度打分的模型,而这两者都是现在 AI 图像生成模型的核心。
除了提供以上的海量训练素材库,LAION 还训练 AI 根据艺术感和视觉美感,给 LAION-5B 里图片打分, 并把得高分的图片归进了一个叫 LAION-Aesthetics 的子集。
事实上, 最新的 AI 绘画模型包括随后提到的 AI 绘画模型王者 Stable Diffusion 都是利用 LAION-Aesthetics 这个高质量数据集训练出来的.
CLIP+VQGAN 引领了全新一代 AI 图像生成技术的风潮,现在所有的开源 TTI (Text to Image, 文本文本生成图像) 模型的简介里都会对 Katherine Crowson 致谢,她是当之无愧的全新一代 AI 绘画模型的奠基者.
技术玩家们围绕着 CLIP+VQGAN 开始形成社区,代码不断有人做优化改进,还有 Twitter 账号专门收集和发布 AI 画作. 而最早的践行者 Ryan Murdoch 还因此被招募进了 Adobe 担任机器学习算法工程师.
不过这一波 AI 作画浪潮的玩家主要还是 AI 技术爱好者.
尽管和本地部署 AI 开发环境相比, 在 Golab Notebooks 上跑 CLIP+VQGAN 的门槛相对而言已经比较低, 但毕竟在 Colab 申请 GPU 运行代码并调用 AI 输出图片,时不时还要处理一下代码报错,这不是大众化人群特别是没有技术背景的艺术创作者们可以做的.而这也正是现在 MidJourney 这类零门槛的傻瓜式 AI 付费创作服务大放光彩的原因.
但激动人心的进展到这里还远没结束.细心的读者注意到,CLIP+VQGAN 这个强力组合是去年初发布并在小圈子传播的, 但 AI 绘画的大众化关注, 如开篇所说, 则是在今年初开始, 由 Disco Diffusion 这个线上服务所引爆.这里还隔着大半年的时间.是什么耽搁了呢?
一个原因是 CLIP+VQGAN 模型所用到的图像生成部分, 即 GAN 类模型的生成结果始终不尽如人意.
AI 人员注意到了另外一种图像生成方式.
如果复习一下 GAN 模型的工作原理, 其图像输出是内部生成器和判断器的 PK 妥协结果.
但还有另外一种思路, 那就是 Diffusion 模型 (扩散化模型).
Diffusion 这个词也很高大上, 但基本原理说出来大家都能理解, 其实就是 “去噪点”. 对, 就是我们熟悉的手机拍照 (特别是夜景拍照) 的自动降噪功能.如果把这个去噪点的计算过程反复进行, 在极端的情况下, 是不是可能把一个完全是噪声的图片还原为一个清晰的图片呢?
靠人当然不行, 简单的去噪程序也不可能, 但是基于 AI 能力去一边 “猜” 一边去噪, 倒是可行的.
这就是 Diffusion 扩散化模型的基本思路.
Diffusion 扩散化模型目前在计算机视觉领域的影响力越来越大,它能够高效合成视觉数据,图片生成完全击败了 GAN 模型, 而在其他领域如视频生成和音频合成也展现出了不俗的潜力.
今年初被大众首先熟知的 AI 绘画产品 Disco Diffusion, 正是第一个基于 CLIP + Diffusion 模型的实用化 AI 绘画产品.
但 Disco Diffusion 的缺点还是有些明显, 如身为专业艺术家的 Stijn Windig 反复尝试了 Disco Diffusion,认为 Disco Diffusion 并没有取代人工创作的能力,核心原因有 2 点:
Disco Diffusion 无法刻画具体细节,渲染出的图像第一眼很惊艳,但仔细观察就会发现大部分都是模糊的概括,达不到商业细节水准。
Disco Diffusion 的初步渲染时间是以小时计算的, 而要在渲染图像的基础上刻画细节,则相当于要把整个图重新画一遍,这样一个流程下来花耗费的时间精力,比直接手绘还要多。
不过 Stijn Windig 还是对 AI 绘画的发展持乐观态度,他觉得尽管直接利用 Disco Diffusion 进行商业化创作还不可行,但作为一种灵感参考还是非常好的: “…… 我发现它更适合作为一个创意生成器使用。给一个文字提示,它返回一些图片能激发我的想象力,并可以作为草图用来在上面绘画。”
其实从技术上来说, Stijn 提出的两大痛点,1) AI 绘画细节还不够深入,2) 渲染时间过长, 实际上都是因为 Diffusion 扩散模型的一个内在缺点, 这就是反向去噪生成图片的迭代过程很慢, 模型在像素空间中进行计算,这会导致对计算时间和内存资源的巨大需求, 在生成高分辨率图像时变得异常昂贵。
(像素空间, 有点专业化的说法, 实际上就是说模型直接在原始像素信息层面上做计算)
因此对于大众应用级的平台产品, 这个模型无法在用户可以接受的生成时间里去计算挖掘更多的图像细节, 即便那种草稿级别的作图, 也需要耗费 Disco Diffusion 以小时计算的时间.
但无论如何,Disco Diffusion 给出的绘画质量, 相对于之前的所有 AI 绘画模型, 都是碾压式的超越, 而且已经是大部分普通人无法企及的作画水平了,Stijn 的挑刺只是站在人类专业创作的高点提出的要求.
但是,Stijn 同学恐怕万万没想到, 他所指出的 AI 绘画两大痛点, 还没过几个月, 就被 AI 研究人员近乎完美的解决了!
讲到这里, 当当当当, 当今世界最强大的 AI 绘画模型 Stable Diffusion 终于闪亮登场了!
Stable Diffusion 今年 7 月开始测试, 它非常好的解决了上述痛点.
实际上 Stable Diffusion 和之前的 Diffusion 扩散化模型相比, 重点是做了一件事, 那就是把模型的计算空间, 从像素空间经过数学变换, 在尽可能保留细节信息的情况下降维到一个称之为潜空间 (Latent Space) 的低维空间里, 然后再进行繁重的模型训练和图像生成计算.
这个 “简单” 的思路转化, 带来了多大的影响呢?
基于潜空间的 Diffusion 模型与像素空间 Diffusion 模型相比, 大大降低了内存和计算要求。比如 Stable Diffusion 所使用的潜空间编码缩减因子为 8, 说人话就是图像长和宽都缩减 8 倍, 一个 512×512 的图像在潜空间中直接变为 64×64, 节省了 8×8=64 倍的内存!
这就是 Stable Diffusion 之所以又快又好的原因, 它能快速 (以秒计算) 生成一张饱含细节的 512×512 图像, 只需要一张消费级的 8GB 2060 显卡即可!
读者可以简单算一下, 如没有这个空间压缩转换, 要实现 Stable Diffusion 这样的秒级图像生成体验, 则需要一张 8Gx64=512G 显存的超级显卡. 按照显卡硬件的发展规律来看, 消费级显卡达到这个显存恐怕是 8-10 年后的事情.
而 AI 研究人员一个算法上的重要迭代, 把 10 年后我们才可能享受到的 AI 作画成果直接带到了当下所有普通用户的电脑前!
所以目前大家对 AI 绘画的进展感到吃惊是完全正常的, 因为从去年到今年,AI 绘画的技术确实出现了连续的突破性的进展, 从 CLIP 模型基于无需标注的海量互联网图片训练大成, 到 CLIP 开源引发的 AI 绘画模型嫁接热潮, 然后找到了 Diffusion 扩散化模型作为更好的图像生成模块, 最后使用潜空间降维的改进方法解决了 Diffusion 模型时间和内存资源消耗巨大的问题… 这一切的一切, 让人目不暇接, 可以说 AI 绘画在这一年间, 变化是以天计算的!
而在这个过程中, 最幸福的莫过于所有 AI 技术爱好者和艺术创作者们.大家亲眼目睹着停滞了多年的 AI 绘画水平以火箭般的速度冲到了顶峰.毫无疑问, 这是 AI 发展历史上的一个高光时刻.
而对所有普通用户来说, 最开心的, 当然是享受到了利用 Stable Diffusion 或者 MidJourney 这样的当今顶级作画 AI 去生成专业级别画作的巨大乐趣.
有趣的是,Stable Diffusion 的诞生还和前面提到的两位先驱 Katherine Crowson 和 Ryan Murdoch 有关. 他们成为了一个去中心化组织的 AI 开源研发团队 EleutherAI 的核心成员.虽然自称草根团队, 但 EleutherAI 在超大规模预言模型和 AI 图像生成领域目前都已经是开源团队的佼佼者.
正是 EleutherAI 作为技术核心团队支持了 Stability.AI 这一家创始于英国伦敦的 AI 方案提供商.这些有理想的人们聚在一起, 基于以上这些最新的 AI 绘画技术突破, 推出了当今最强大的 AI 绘画模型 Stable Diffusion. 重要的是,Stable Diffusion 按照承诺, 已经在 8 月完全开源! 这个重要的开源让全世界的 AI 学者和 AI 技术爱好者感动得痛哭流涕. Stable Diffusion 一经开源, 就始终霸占着 GitHub 热榜第一。
Stability.AI 彻底履行了它官网首页的 Slogan “AI by the people, for the people”, 必须给予一个大大的赞.
下图是作者线上运行的 Stable Diffusion, 感谢开源! 话说这个 AI 生成的自带光环的日漫小哥是相当的帅气:)
顶级 AI 绘画模型的 PK: Stable Diffusion V.S. MidJourney
作者在之前文章里已经介绍了 MidJourney 这个在线 AI 作画神器, 它最大的优点就是零门槛的交互和非常好的输出结果.创作者无需任何技术背景就能利用基于 Discord 的 MidJourney bot 进行对话式绘画创作 (恩, 当然, 全英文)
从输出风格上看,MidJourney 非常明显针对人像做了一些优化, 用多了后,MidJourney 的风格倾向也比较明显 (作者在 MidJourney 上花了数百刀的计算资源尝试了各种主题创作后的第一手感受) , 说得好听是比较细腻讨巧, 或者说, 比较油腻一点点.
而 Stable Diffusion 的作品, 就明显的更淡雅一些, 更艺术化一些.
以下是作者使用了同一种文字描述在这两大平台上创作的 AI 作品对比.读者不妨直接感受一下.
(注: 以下生成画作均有完全版权, 单独转载请注明来源)
Stable Diffusion (左) V.S. MidJourney (右) :
树屋
柴油朋克风的城市
魔兽世界主城奥格瑞玛
盔甲狼骑士
碧蓝幻想风格漫画少女
浪漫写实主义美女油画 (风格参考丹尼尔・戈尔哈茨, 美国画家)
带有狭长走道的迷宫般老城市建筑
哪种风格更好? 其实萝卜青菜各有所爱.
因为做过针对性的优化, 如要出人像图或者糖水风格美图用 MidJourney 更方便.但比较了多张作品后, 作者认为 Stable Diffusion 还是明显技高一筹, 无论从艺术表达上还是风格变化的多样性上.
不过,MidJourney 这几个月的迭代是有目共睹的快 (毕竟是付费服务, 很赚钱很有动力啊), 加上 Stable Diffusion 的完全开源, 预计相关技术优势会很快被吸收进 MidJourney. 而另一方面,Stable Diffusion 模型的训练还在持续进行中, 我们可以非常期待, 未来版本的 Stable Diffusion 模型也将百尺竿头更进一步.
对所有的创作者用户而言, 这都是天大的好事.
AI 绘画的突破对人类意味着什么
2022 年的 AI 领域, 基于文本生成图像的 AI 绘画模型是风头无两的主角.从 2 月份的 Disco Diffusion 开始,4 月 DALL-E 2 和 MidJourney 邀请内测, 5 月和 6 月 Google 发布两大模型 Imagen 和 Parti (不开放内测只有论文, 感觉略水), 然后 7 月底,Stable Diffusion 横空出世…
真的让人眼花缭乱.也勿怪作者在上篇文章里感慨, 怎么稍不注意 AI 绘画的水平就突飞猛进到如此地步, 事实上, 确实就是在这一年半载里,AI 绘画发生了革命性的, 甚至可以说历史上会留名的突破性进展.
而接下去的时间里,AI 绘画, 或者更广泛的,AI 生成内容领域 (图像, 声音, 视频,3D 内容等…) 还会发生什么, 让人充满了遐想和期待.
但不用等待未来, 体验了当下以 Stable Diffusion 为代表的最先进 AI 绘画模型所能触达的艺术高度, 我们已经基本可以确认,”想象力” 和 “创造力” 这两个曾经充满着神秘主义的词汇, 同时也是人类最后的骄傲, 其实也是可以被技术解构的.
对人类灵魂神圣至上说法的拥护者而言, 当今 AI 绘画模型所展现的创造力, 是一种对信仰的无情打击.所谓灵感, 创造力, 想象力, 这些充满着神性的词, 即将 (或者已经) 被超级算力 + 大数据 + 数学模型的强力组合无情打脸了.
事实上, 类似 Stable Diffusion 这种 AI 生成模型的一个核心思路, 或者说很多深度学习 AI 模型的核心思路, 就是把人类创作的内容, 表示为某个高维或者低维数学空间里的一个向量 (更简单的理解, 一串数字). 如果这个 “内容-> 向量” 的转化设计足够合理, 那么人类所有的创作内容都可以表示为某个数学空间里的部分向量而已.而存在于这个无限的数学空间里的其他向量, 正是那些理论上人类可能创造, 但尚未被创造出来的内容.通过逆向的 “向量-> 内容” 的转换, 这些还没被创造的内容就被 AI 挖掘出来了.
这正是目前 MidJourney, Stable Diffusion 这些最新 AI 绘画模型所做的事情. AI 可以说是在创作新的内容, 也可以说是新绘画作品的搬运工. AI 产生的新绘画作品在数学意义上一直客观存在, 只是被 AI 通过很聪明的方式, 从数学空间里还原出来, 而已.
“文章本天成, 妙手偶得之”.
这句话放在这里非常合适. 这 “天”, 是那个无限的数学空间; 而这 “手”, 从人类, 换成了 AI.
数学真是世界至高法则:)
目前最新 AI 绘画的 “创造力” 开始追赶甚至几已比肩人类, 这或许进一步打击了人类的尊严, 从围棋阿法狗开始, 人类在 “智慧” 这个点的尊严领地已经越来越小, 而 AI 绘画的突破性进展则进一步把人类 “想象力” 和 “创造力” 的尊严都打碎了 — 或许还没完全破碎, 但已经充满裂痕摇摇欲坠.
作者一直对人类的科技发展保持某种中性看法: 尽管我们寄望于科技让人类的生活变得更美好, 但事实上正如核弹的发明, 有些科学技术的出现是中性的, 也可能是致命的.完全取代人类的超级 AI 从实践来看似乎是一件越来越可能的事情.人类需要思考的是, 在不太远的将来, 我们在所有领域面对 AI 都落荒而逃的时候, 如何保持对世界的主导权.
有个朋友说的很对, 如果 AI 最终学会了写代码 — 似乎没有什么必然的壁垒在阻止这件事的发生 — 那么电影 <终结者> 的故事或许就要发生了.如果这样太悲观, 那么人类至少要考虑, 如何与一个超越自己所有智慧和创造力的 AI 世界相处.
当然咯, 乐观的角度而言, 未来的世界只会更美好: 人类通过 AR / VR 接入统一的或者个人的元宇宙, 人类主人只要动动嘴皮子, 无所不能的 AI 助理就能根据要求自动生成内容, 甚至直接生成可供人类体验的故事 / 游戏 / 虚拟生活.
这是一个更美好的盗梦空间, 还是一个更美好的黑客帝国?(笑)
无论如何, 今天我们见证的 AI 绘画能力的突破和超越, 正是这条不归路的第一步:)
说个题外话作为结尾. 尽管还没出现, 但应该就在这两年, 我们可以直接让 AI 生成一本指定风格的完整长篇小说, 特别是那些类型化的作品, 比如 <斗破苍穹>,< 凡人修仙传 > 这样的玄幻小说, 还可以指定长度, 指定女主角个数, 指定情节倾向性, 指定悲情程度和热血程度, 甚至 xx 程度,AI 一键生成 🙂
这完全不是天方夜谭, 考虑到 AI 绘画这一年坐火箭般的发展速度, 作者甚至觉得这一天就近在眼前.
目前还没有 AI 模型可以生成足够感染力和逻辑性的长篇文学内容, 但从 AI 绘画模型气势汹汹的发展态势来看, 不久的将来 AI 生成高质量的类型文学作品几乎已是板上钉钉的事情, 理论上没有任何的疑问.
这样说或许打击了那些辛苦码字的网文作者, 但作为一个技术爱好者和玄幻小说爱好者, 作者对这一天的到来还是有些期待的… 从此再也不需催更, 也不需要担心连载作者的写作状态了; 更美好的是, 看到一半如觉得不爽, 还可以随时让 AI 调整后续情节方向重新生成再继续看…
若你还不确定这样的一天即将到来, 我们可以求同存异, 一起等待.
最后分享一组作者用 stable diffusion 生成的细节完全不同, 风格又完全一致, 质量还永远保持满格的 “带有狭长走道的城市迷宫老建筑区” 系列.看着这些精美的 AI 作品, 作者只有一种感觉,AI 创作有 “灵魂” 了, 不知读者们, 是否有同感?:)
本文来自微信公众号:Web3 天空之城 (ID:Web3SkyCity),作者:城主