当前位置: 首页>后端>正文

ControlNet 和 T2I-Adapter,控制Stable Diffusion的不受控制的力量,AI 图像生成精确控制的破冰解决方案(教程含免安装使用方式)

控制Stable Diffusion的不受控制的力量

人工智能艺术社区的兴奋在最近几天达到顶峰,让我想起了去年 Stable Diffusion 的首次发布。本次重点介绍基于Stable Diffusion 1.5的轻量级预训练模型ControlNet,可以检测输入图像中的边缘、深度图或姿态骨架,结合文字提示,精准指导Stable Diffusion中图像的生成.

下图是ControlNet论文中的demo,使用Canny边缘检测提取输入图像中小鹿的轮廓特征,提示“一张高质量、详细、专业的图像”生成4张结果图在 SD 1.5 中。

ControlNet 和 T2I-Adapter,控制Stable Diffusion的不受控制的力量,AI 图像生成精确控制的破冰解决方案(教程含免安装使用方式),第1张

2 月 10 日,ControlNet 论文发布,同时发布了预训练模型的开源权重和论文中提到的所有输入条件检测器。社区迅速在 Huggingface 中部署了一个试用 demo,并将其打包为可在 Stable Diffusion WebUI 中使用的扩展。


https://www.xamrdz.com/backend/3av1942692.html

相关文章: