引言
距离Stable Diffusion 3.0 已经正式发布了一段时间,该模型能生成照片般细节逼真、色彩鲜艳、光照自然的图像;那么主要有什么优化呢?
1. 把U-Net丢进垃圾桶
这次SD3直接把传统U-Net架构丢进回收站,换上与Sora师出同门的DiT架构(扩散版变形金刚)。这货能把图片切成"乐高积木"式潜在块,再用自注意力机制玩全局拼图游戏。实测单句提示词能塞进12个对象还不乱套,堪称"甲方の噩梦终结者"——"蓝色立方体顶红色球体,左边猫右边狗背后绿三角"这种反人类需求也能精准生成
2. 快递式路径优化
传统扩散模型像山路十八弯的快递路线,SD3直接上"流匹配"技术给路径拉直成高速公路。采样速度飙升300%,RTX4090上1.2秒出4K图,比甲方改需求的速度还快。更绝的是引入Rectified Flow修正流,少步采样也能出DALL·E 3级画质,低配设备狂喜
虽然SD3更强了,但是如何畅玩SD3 + WebUI仍然是一个难倒小白的问题。比如:
- 本机部署搞定环境就很麻烦
- 吃本机显卡配置
- 在线生成图平台无法自由换模型。更不用说使用限制级模型了。
- 做不到即开即用,配置还很好。
咱们先不聊怎么解决这些问题,先来看看通过阿里云计算巢通过一键部署的模型SD3+Lora微调能达到什么效果。
实战效果
人像生成方面
参考Prompt:
Frontal photography,Look front,evening,dark clouds,1girl,happy,(smile:0.6),full body,gyaru,black hair,long hair,coat, jacket,denim_shorts,midriff,sleeveless,
dark theme,dark background,muted tones,pastel colors,high contrast,(natural skin texture, A dim light, high clarity) ((sky background))((Facial highlights)),highlight,flash, <lora:polaroid:0.5>
可以看出SD3做到了:
- 毛孔级皮肤纹理重建
- 物理精确的光线追踪模拟
- 多图层景深控制
动漫风
参考Prompt
(Masterpiece), persimmon branches, cat, simple background
科幻风
参考prompt
(masterpiece:1.3),best quality,(official art:1.3),(A future mechanical car:1.2),Facing the lens,On urban streets,Surrounded by urban buildings,(Light rain:1.3),The background is starry sky,(Stage smoke:1.1),A dark and mysterious atmosphere,surrounded by light signs,neon lights,large screen,rich details,(the whole body:1.3),light strips,reflective materials,glass,cyberpunk std,c4d,8K,a sci-fi city with mushrooms as the main element
一键部署
看了这么多令人兴奋作品,小白肯定已经饥渴难耐了。那么有没有部署在云上,即开即用,又是高品质的显卡的使用方式呢?
有的,兄弟有的。
软硬件一体包可直接在阿里云计算巢部署的。
- 单击部署链接,进入服务实例部署界面,根据界面提示,填写参数
- 根据提示填写参数。最好去新加坡部署,这样最新发布的模型和插件可以直接自己下载使用到。
-
- 通过安全代理访问WebUI服务。
- 开始爽玩吧。
设置中文菜单
- 选择"setting"且左侧选择User Interface
- 再次选择User Interface并点击。
- 安装图示的三个操作,设置为中文
下载插件
** 重要** :如果您的机器如果不是海外机器,请采用Github镜像网站的下载链接,避免因被墙导致插件安装失败。
- 在如图所示菜单处下载插件。
-
结语
无论是专业设计师还是普通创作者,现在均可通过这一平台将想象力直接转化为媲美专业级的生产力输出。
我们即将支持Flux模型,敬请期待!!!
更多有意思,又好玩又有深度的服务,请访问计算巢网址