stable diffusion 如何高效率出图 经验分享

工欲善其事必先利其器,一些常用的模型建议提前下好。colab白piao用户更是如此,强烈建议将常用模型放谷歌盘,C站H站高峰期速度不稳定,往往等上半小时下载。建议先用huggingface下载,使用结束后备份到谷歌盘,下次使用直接拖过来。

基础模型

wget https://huggingface.co/stabilityai/sd-vae-ft-mse-original/resolve/main/vae-ft-mse-840000-ema-pruned.ckpt  -O /content/stable-diffusion-webui/models/VAE/vae-ft-mse-840000-ema-pruned.vae.pt
wget https://huggingface.co/Kanbara/doll-likeness-series/resolve/main/japaneseDollLikeness_v15.safetensors -O /content/stable-diffusion-webui/extensions/sd-webui-additional-networks/models/lora/japaneseDollLikeness_v15.safetensors
wget https://huggingface.co/Kanbara/doll-likeness-series/resolve/main/koreanDollLikeness_v15.safetensors -O /content/stable-diffusion-webui/extensions/sd-webui-additional-networks/models/lora/koreanDollLikeness_v15.safetensors
wget https://huggingface.co/Kanbara/doll-likeness-series/resolve/main/taiwanDollLikeness_v15.safetensors -O /content/stable-diffusion-webui/extensions/sd-webui-additional-networks/models/lora/taiwanDollLikeness_v15.safetensors
wget https://huggingface.co/rhine0613/fashionGirlv50/resolve/main/fashionGirl_v50.safetensors -O /content/stable-diffusion-webui/extensions/sd-webui-additional-networks/models/lora/fashionGirl_v50.safetensors
43a17a5104132717

模型推荐

在画人物方面,这里推几个常用的模型:

  • vae-ft-mse-840000-ema-pruned.ckpt
  • chilloutmix(据说7g版更好?)
  • 饭特稀
  • 国风3(可配汉服)
  • KoreanStyle2.5D
  • counterfeit(动画)

Lora:

  • japaneseDollLikeness
  • koreanDollLikeness(必备)
  • taiwanDollLikeness
  • fashionGirl
  • 20d
  • 各种pov(你懂的)

经验分享

为什么画不出想要的效果,其实提示词差别不大,关键在于《主题》,合适的Lora更容易生成想要的内容。

1cd3d91963132936

以这张图为例,单用chilloutmix是比较难出这样的效果(尤其容貌)

这里还引用了koreanDollLikeness和taiwanDollLikeness两个Lora

根据提示词去找即可

提示词

提示词不是什么魔法咒语

应该灵活变通,而不是生搬硬套,建议花点时间看看上面写了什么,根据自己需要去增删。

非特殊内容,强烈建议在提示词的前方添加“solo”这样的关键词,避免出现多个人物——往往还是画坏的。

负面描述

个人倾向于越多越好,因为可以通用,有价值好好写个模板。

其中对肢体的描述尤为重要

missing arms, missing legs, extra arms, extra legs

多画点你就知道,最后NSFW灵活使用。

效率!!

AI画图终究还是开盲盒,可千万不要一个提示词画一次,看到好的又想换。

记住:单抽比不过十连

d80b6b263c133200

在不爆显存的情况下,调好整好尺寸,设置一个合适的《批次》

sdwebui会根据你设定的批次开始批量跑——12就是生成12张

并且,没有特殊情况下,绘图步数不要超过30。

采样方法尽可能使用DPM++ 2M Karras而不是SDE(很慢)

当然具体情况以模型作者建议参数为准。

画完后使用图生图→图像批处理→配置好输入输出目录→调整参数即可批量出图

b1bea4d8ec133236

重绘幅度尽量不要超0.3

8692970c88133304

记得处理完后删掉输入文件夹内的临时图片。

默认输出的图片会生成一张jpg和png,jpg的exif会保留这张图的提示词,有需要可以保留。

完成这个流程后再进行下一轮跑图。

本文首发于:效率出图,我们是认真的 — HostLOC

© 版权声明
THE END
喜欢就支持一下吧
点赞12 分享