【AI绘图教程】入门必看,Stable Diffusion名词解析(二)
随着AI绘图的爆火,很多人也知道了Midjourney,Stable Diffusion等AI绘画工具,前者比较好理解,直接进入网页可用,后者就比较复杂一些,需要自己手动部署环境、安装软件、设置操作跟训练模型使用。本文中,云界AI绘画创作平台将继续解释Stable Diffusion各个名词含义,包括什么是ControlNet、怎么进行无损放大,如果对于界面内的其他名词有疑惑,可以在【AI绘图教程】入门必看,Stable Diffusion名词解析(一)中查看。
Stable Diffusion基础界面
ControlNet是什么?
ControlNet是一种新颖的神经网络架构,可以通过微调预训练模型来适应特定任务,并在多个基准数据集上取得了非常好的性能表现。通过添加额外条件来控制扩散模型的神经网络结构从而实现对画面更细致的控制具体的原理还挺难理解,简而言之,它能control 控制。
使用攻略
点开选项,可以看到插件的界面,重点是预处理器和模型。可以使用ControlNet生成AI所能够理解的骨骼深度、边缘、法线等等信息 (annotator) 。进而使用这些信息来控制图片生成。
点开预处理器,可以看到一共有十几种模式,其中主要的有几大类:描边、深度、法线、骨骼。
先以骨骼为例,首先把启用勾选上,预处理器选择openpose,模型一般也要选择对应的,control_openpose。
将一张人物图片拖入,点击预览预处理结果,稍等一会就可以得到一张附带骨骼信息的图片。这张就是ControlNet从图片中提取出来的模型。再在提示词中输入 a boy,点击生成。
这时候会发现SD通过识别信息图片,生成了一张动作一样的图片,这就是ControlNet。
描边模式也是同理。当然,能做的还不止于此。
在C4D中拉个BOX,再使用ControlNet提取深度信息,
再使用建筑模型aarg,随便生成一下。 可以看到,只要是ControlNet可以读取到的信息,经过 转化,就可以用来做控制,还可以用来做动画等等,更
多的方式等待大家去尝试。
无损放大
无损放大与模糊图像修复
附加功能 点开附加功能,会看到有一个可以缩放图片的界面,这 个功能可以借助不同的Al的算法对图片进行进一步放大
或者修复清晰度。 先上传图片,然后选择模型,再选择要放大的倍数,即
可开始生成。
有一些模式仅仅是放大图片,保留原来的清晰度。有一 些模式在放大的同时,也进行了细节修复,提升清晰度, 可以看情况使用,比如希望保留原有的一些手绘的痕迹,
可以选择不带修复清晰度的模型。 修复清晰度的常用模型有BSRGAN、R-ESRGAN4x+、
R-ESRGAN4x+Anime6B
本文为教程的第二部分,想知道什么是大模型、VAE、Textual inversion、Lora模型等,欢迎查看Stable Diffusion名词解析(一)内容。对于AI绘图初学者来说,不管是Midjourney还是Stable Diffusion软件,从使用环境、特殊门槛、部署环境以及界面体验来说,都是很不友好的,这里推荐国内最贴近用户使用,不管是初学者还是专业用户来说都非常友好的平台-云界AI创作平台,里面包含了文生图、图生图、条件生图……多项功能,很多惊喜功能,期待你的体验与发掘!