🌓
搜索
 找回密码
 立即注册

提供源码下载 Stable Diffusion超详细教程!从0-1入门到进阶

admin 2023-12-1 09:36:44 74467
v2-66bee1c922d76ecc5a70462d8533bbd5_720w.webp
一、本地部署 Stable Diffusion
前言
目前市面上比较权威,并能用于工作中的AI绘画软件其实就两款。一个叫Midjourney(简称MJ),另一个叫Stable-Diffusion(简称SD)。MJ需要付费使用,而SD开源免费,但是上手难度和学习成本略大,并且非常吃电脑配置(显卡、内存)。

E和Midjourney相比,Stable Diffusion 最大的优势是开源,这意味着Stable Diffusion的潜力巨大、发展飞快。由于开源免费属性,SD 已经收获了大量活跃用户,开发者社群已经为此提供了大量免费高质量的外接预训练模型(fine-tune)和插件,并且在持续维护更新。在第三方插件和模型的加持下,SD拥有比Midjourney更加丰富的个性化功能,在经过使用者调教后可以生成更贴近需求的图片,甚至在 AI 视频特效、AI音乐生成等领域,Stable Diffusion 也占据了一席之地。
Stable Diffusion是一种潜在扩散模型(Latent Diffusion Model),能够从文本描述中生成详细的图像。它还可以用于图像修复、图像绘制、文本到图像和图像到图像等任务。简单地说,我们只要给出想要的图片的文字描述在提Stable Diffusion就能生成符合你要求的逼真的图像!

v2-ddc6c5960c6d609ff4f49d31390fb3aa_720w.webp
电脑配置
电脑配置最核心的关键点:看显卡、看内存、看硬盘、看CPU。其中最重要的是看显卡。N卡(英伟达Nvida独立显卡)首选,效率远超集显/AMD/Intel显卡和CPU渲染,最低10系起步,体验感佳用40系,显存最低4G,6G及格,上不封顶;内存最低8G,16G及格,上不封顶;硬盘可用空间最好有个500G朝上,固态最佳。
系统要求:支持 Win10/Win11/macOS(仅限Apple Silicon,Intel 版本的 Mac 无法调用 Radeon 显卡)和 Linux 系统,苹果版 SD 兼容的插件数量较少,功能性不及 Windows 与 Linux 电脑。

如果身边没有合适的电脑可以考虑购买云主机,比如腾讯GPU云服务器。若无法使用独立显卡和云服务,亦可修改启动配置,使用CPU渲染(兼容性强,出图速度慢,需要16G以上内存)。

v2-f0ba84744604aff06fb0a6462b355f96_720w.webp
从图中可看出,与AMD或英特尔的任何产品相比,Nvidia的GPU提供了卓越的性能--有时是以巨大的优势。随着Torch的DLL修复到位,RTX 4090的性能比带有xformers的RTX 3090 Ti高出50%,而没有xformers的性能则高出43%。生成每张图片只需要三秒多。

安装方法
SD开源地址:https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki

目前大家普遍采用的Stable Diffusion Web UI是发布于开源程序分享网站 Github 的 Python 项目,和平常软件安装方法有所不同,不是下载安装即可用的软件,需要准备执行环境、编译源码,针对不同操作系统(操作系统依赖)、不同电脑(硬件依赖)还有做些手工调整,这需要使用者拥有一定的程序开发经验(可以现学),已经有很多大佬们写了详细的安装教程。(如https://www.tonyisstark.com/846.html @托尼不是塔克)

如果像我一样是小白不会装,现在可以直接使用大佬们做的一键启动程序包,比如国内@秋葉aaaki大大开发的整合包,极大的降低了安装门槛(强烈推荐!)
v2-89894ef22d19fa2382153cbaedc2f21d_720w.webp
(详见https://www.bilibili.com/video/BV1ne4y1V7QU)一键启动包只是封装了可视化的一键界面,不影响出图效果,只是降低了本地部署的门槛。

Nvidia 显卡用户须知:在使用SD前,请登录 Nvidia 官网https://www.nvidia.cn/geforce/drivers/下载安装对应显卡最新版驱动程序,与https://blog.csdn.net/weixin_44177494/article/details/120444922显卡支持的最新版 CUDA 驱动。

启动SD
进入SD安装文件夹,双击 webui-user.bat,待其加载完成方可使用浏览器(Chrome/Edge)登录默认的加载IP http://127.0.0.1:7860/
v2-e9cfefe29dd80365fa9ff7bc1517f47d_720w.webp
界面汉化
如果需要中文语言包,可以下载如下中文语言包扩展,下载界面网址为:https://github.com/VinsonLaro/stable-diffusion-webui-chinese
方法1:通过WebUI拓展进行安装
1.打开stable diffusion webui,进入"Extensions"选项卡
2.点击"Install from URL",注意"URL for extension's git repository"下方的输入框
3.粘贴或输入本Git仓库地址https://github.com/VinsonLaro/stable-diffusion-webui-chinese
4.点击下方的黄色按钮"Install"即可完成安装,然后重启WebUI(点击"Install from URL"左方的"Installed",然后点击黄色按钮"Apply and restart UI"网页下方的"Reload UI"完成重启)
5.点击"Settings",左侧点击"User interface"界面,在界面里最下方的"Localization (requires restart)",选择"Chinese-All"或者"Chinese-English"
6.点击界面最上方的黄色按钮"Apply settings",再点击右侧的"Reload UI"即可完成汉化

二、界面基础
了解界面
接下来是具体的使用方法简介。目前SD并不存在通行可靠的使用规范,每个人的电脑配置、需求都不尽相同,cpkd/Safetensors大模型、VAE、embeding、lora等AI模型、各类插件、提示词、输出参数的组合牵一发则动全身,需要大家有足够的耐心查阅插件开发者的说明文档和来自https://civitai.com/等分享网站的使用心得,大家可以先到civitai上搜索中意的图例,复用原作者的出图提示词、参数和模型,再以此修改,这样学习的效果最为直观。
v2-8712f8736f92b80fb19dff0d8f220d0a_720w.webp
文生图:根据文本提示生成图像
图生图:根据提供的图像作为范本、结合文本提示生成图像
更多:优化(清晰、扩展)图像
图片信息:显示图像基本信息,包含提示词和模型信息(除非信息被隐藏)
模型合并:把已有的模型按不同比例进行合并生成新模型
训练:根据提供的图片训练具有某种图像风格的模型
v2-f3a273c5f3e0f8c02822091f1cb9858a_720w.webp
描述语分为正向/负向描述,它们也叫tag(标签)或prompt(提示词)
正面提示词:相比Midjourney需要写得更精准和细致,描述少就给AI更多自由发挥空间。
负面提示词:不想让SD生成的内容。
正向:masterpiece, best quality, 更多画质词,画面描述
反向:nsfw, lowres, bad anatomy, bad hands, text, error, missing fingers,extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry,根据画面产出加不想出现的画面。
生成下面的5个小图标(从左到右依次分别是)
  • 复原上次生成图片的提示词(自动记录)
  • 清空当前所有提示词
  • 打开模型选择界面
  • 应用选择的风格模板到当前的提示词
  • 存档当前的正反向提示词
v2-91b6f73a0a896678425fb672114f5830_720w.webp
采样方法
1.建议根据自己使用的checkpoint使用脚本跑网格图(用自己关心的参数)然后选择自己想要的结果。
2.懒得对比:请使用DPM++ 2M或DPM++ 2M Karras(二次元图)或UniPC,想要点惊喜和变化,Euler a、DPM++ SDE、DPM++ SDE Karras(写实图)、DPM2 a Karras(注意调整对应eta值)
3.eta和sigma都是多样性相关的,但是它们的多样性来自步数的变化,追求更大多样性的话应该关注seed的变化,这两项参数应该是在图片框架被选定后,再在此基础上做微调时使用的参数。

采样步数
稳定扩散通过从充满噪音的画布开始创建图像,并逐渐去噪以达到最终输出。此参数控制这些去噪步骤的数量。通常越高越好,但在一定程度上,我们使用的默认值是25个步骤。以下是不同情况下使用哪个步骤编号的一般指南:
  • 如果您正在测试新的提示,并希望获得快速结果来调整您的输入,请使用10-15个步骤
  • 当您找到您喜欢的提示时,请将步骤增加到25
  • 如果是有毛皮的动物或有纹理的主题,生成的图像缺少一些细节,尝试将其提高到40
v2-0cd6be5cc8b6bc5f9813638ef9cb8a1e_720w.webp
面部修复:修复人物的面部,但是非写实风格的人物开启面部修复可能导致面部崩坏。
平铺:生成一张可以平铺的图像
高分辨率重绘:使用两个步骤的过程进行生成,以较小的分辨率创建图像,然后在不改变构图的情况下改进其中的细节,选中该选项会有一系列新的参数,
其中重要的是:
放大算法:Latent 在许多情况下效果不错,但重绘幅度小于 0.5 后就不甚理想。ESRGAN_4x、SwinR 4x 对 0.5 以下的重绘幅度有较好支持。
放大倍数: 通常2倍即可
重绘幅度:决定算法对图像内容的保留程度。该值越高,放大后图像就比放大前图像差别越大。低 denoising 意味着修正原图,高 denoising 就和原图就没有大的相关性了。一般来讲阈值是 0.7 左右,超过 0.7 和原图基本上无关,0.3 以下就是稍微改一些,0什么都不会改变,1会得到一个完全不同的图像。具体的执行步骤为 重绘强度 * 重绘步数。

v2-59dd1d7689b46313cd27b5fd9a85201f_720w.webp
长宽尺寸(分辨率)
长宽尺寸并非数值越大越好,最佳的范围应在512至768像素之间,比如正方形图多是512*512和768*768,人像肖像 512x768,风景画 768×512,可按比例加大或减小,这个值必须是 8 的倍数。如果不希望主题对象出现重复,应在此范围内选择适当的尺寸。如果需要更高分辨率的图片,建议先使用SD模型生成图片,然后再使用合适的模型进行upscale。

生成批次:每次生成图像的组数。一次运行生成图像的数量为生成批次 * 每批数量。
每批数量:同时生成多少个图像。增加这个值可以提高性能,但你也需要更多的 VRAM。图像总数是这个值乘以批次数。除 4090 等高级显卡以外通常保持为 1。

提示词相关性CFG:较高的数值将提高生成结果与提示的匹配度。
OpenArt上使用的默认CFG是7,这在创造力和生成你想要的东西之间提供了最佳平衡。通常不建议低于5。
CFG量表可以分为不同的范围,每个范围都适合不同的提示类型和目标
CFG 2 – 6:有创意,但可能太扭曲,没有遵循提示。对于简短的提示来说,可以很有趣和有用
CFG 710:推荐用于大多数提示。创造力和引导一代之间的良好平衡
CFG 10-15:当您确定您的提示是详细且非常清晰的,您希望图像是什么样子时
CFG 16-20:除非提示非常详细,否则通常不推荐。可能影响一致性和质量
CFG >20:几乎无法使用

随机种子(Seed):生成每张图片时的随机种子,这个种子是用来作为确定扩散初始状态的基础。不懂的话,用随机的即可。

提示词生成
开始不知道怎么写提示词,可以先参考优秀的风格模板作为起手式,还可以借助描述语工具和网站,多出图多研究,掌握了出图规律,慢慢就可以自己写提示词啦,写提示词要尽可能写的详细。跑AI的过程就像抽卡,抽出一堆卡,选出你审美范畴里觉得好看的。

v2-189f1c9b48f41d2c2939757ddd9b610c_720w.webp
找tag关键词网站:
可参考Civitai | Stable Diffusion models, embeddings, hypernetworks and more中优秀作品的提示词作为模板。
其他网站还有:
ChatGPT:https://chat.openai.com/
AI Creator:https://ai-creator.net/arts
NovelAI:https://spell.novelai.dev
魔咒百科词典:https://aitag.top
AI咒术生成器:https://tag.redsex.cc/
AI词汇加速器 AcceleratorI Prompt:
词图 PromptTool:https://www.prompttool.com/NovelAI
鳖哲法典:http://tomxlysplay.com.cn/#/
Danbooru tag:Tag Groups Wiki | Danbooru (http://donmai.us)


Prompt格式优化
第一段:画质tag,画风tag
第二段:画面主体,主体强调,主体细节概括(主体可以是人、事、物、景)画面核心内容
第三段:画面场景细节,或人物细节,embedding tag。画面细节内容
第二段一般提供人数,人物主要特征,主要动作(一般置于人物之前),物体主要特征,主景或景色框架等

举个例子
(具体场景还是要灵活应用,多尝试,找到合适自己的节奏和风格)
第一段:masterpiece, best quality, 4k, ( Pixar - style :1.4)
第二段:1boy,(Cute,handsome,wearing outdoor sportswear :0.7), 3D,(Face close-up :1.2), (at night, surrounded by glowing plants, flowers, flying fireflies, bonfires), (Ultra detailed, aesthetic, beautiful composition, rich bright colors, volumetric soft light).
第三段:Inspired by Alice in Wonderland, magic, fairy tales. unreal Engine, octane render, cuteness render, awe inspiring, beautiful, <lora:blindbox_V1Mix:1>
v2-abe713ec346a9e8d82398373aaf5444e_720w.webp
Prompt规则细节
1. 越靠前的Tag权重越大。
2. 生成图片的大小会影响Prompt的效果,图片越大需要的Prompt越多,不然Prompt会相互污染。
3.Stable-diffusion中,可以使用括号人工修改提示词的权重,方法如下:
(word) - 将权重提高 1.1 倍
((word)) - 将权重提高 1.21 倍(= 1.1 * 1.1)
[word] - 将权重降低至原先的 90.91%
(word:1.5) - 将权重提高 1.5 倍
(word:0.25) - 将权重减少为原先的 25%
请注意,权重值最好不要超过 1.5
v2-8af7500f4597553e3348f0bebb4f0fa2_720w.webp
4. Prompt支持使用emoji,可通过添加emoji达到表现效果。如 形容表情, 可修手。
5.“+” , “ AND” , “|” 用法:“+”和“ AND ”都是用于连接短Tag,但AND两端要加空格。"+"约等于" and ";“|” 为循环绘制符号(融合符号)(Prompt A: w1)|(Prompt B: w2)
以上表达适用于WebUI,w1、w2为权重。AI会对A、 B两Prompt进行循环绘制。可往后无限加入Prompt。
6.tag不一定是多么充满细节,只要模型稳定。小图+高分辨率重绘。800*400的图变成1600*800,初识小图减少崩坏概率。
7.关键词最好具有特异性,譬如 Anime(动漫)一词就相对泛化,而Jojo一词就能清晰地指向 Jojo动漫的画风。措辞越不抽象越好,尽可能避免留下解释空间的措辞。

三、了解模型
下载模型
主流模型下载网站:
Hugging face是一个专注于构建、训练和部署先进开源机器学习模型的网站:https://huggingface.co/
Civitai是一个专为Stable Diffusion AI艺术模型设计的网站,是非常好的AI模型库:https://civitai.com/
主流模型被删除可以去备用模型站下载:https://www.4b3.com
v2-45091ab3c9ea33d2c4cc12eb8bdcc031_720w.webp
模型选择
如何选择合适模型是最重要的。
从你想画的风格(写实、二次元、卡通盲盒等)来选择大模型,再搭配合适的Lora。
1.Checkpoint
体积较大,也被称为大模型,不同的大模型使用不同的图片训练而成,对应不同的风格,相当于最底层的引擎。有时候需要大模型+VAE+emb+Lora联合搭配使用以达到需要的效果。
下载的大模型可放置于SD文件夹/models/Stable-diffusion内。
v2-dcefdb6c297905e79e1880f5aed650ed_720w.webp
2.Lora
Lora是特征模型,体积较小,是基于某个确定的角色、确定的风格或者固定的动作训练而成的模型,可使用权重控制,确定性要远强于embedding。embedding和Lora有功能交集的部分,也有互相不可取代的地方。

在ckpt大模型上附加使用,对人物、姿势、物体表现较好。在webui界面的Additional Networks下勾线Enable启用,然后在Model下选择模型,并可用Weight调整权重。权重越大,该 Lora 的影响也越大。不建议权重过大(超过1.2),否则很容易出现扭曲的结果。

多个Lora模型混合使用可以起到叠加效果,譬如一个控制面部的Lora 配合一个控制画风的 Lora就可以生成具有特定画风的特定人物。因此可以使用多个专注于不同方面优化的Lora,分别调整权重,结合出自己想要实现的效果。

LoHA 模型是一种 LORA 模型的改进。
LoCon 模型也一种 LORA 模型的改进,泛化能力更强。
下载的Lora可放置于SD文件夹/models/Lora内。

v2-fda222f7c354e0b7777c3f5177e71d10_720w.webp
3.VAE
VAE模型类似滤镜,对画面进行调色与微调,一般需要搭配相应的模型一起使用。(如果图片比较灰,颜色不太靓丽,就可能是没加载vae)
下载的VAE可放置于SD文件夹/models/VAE内。

4.Textual inversion(embedding)
关键词预设模型,即关键词打包,即等于预设好一篮子关键词a,b,c打包,进而来指代特定的对象/风格。也可以通过下载Textual inversion进行使用。
下载的embedding可放置于SD文件夹/embeddings内。

四、ControlNet
ControlNet使得SD从玩具变成做商业项目的神器,接下来会重中之重来详细讲解一下。
ControlNet是斯坦福大学研究人员开发的Stable Diffusion的扩展,使创作者能够轻松地控制AI图像和视频中的对象。它将根据边缘检测、草图处理或人体姿势等各种条件来控制图像生成。ControlNet可以概括为一种简单的稳定扩散微调方法。ControlNet的工作原理是将可训练的网络模块附加到稳定扩散模型的U-Net (噪声预测器)的各个部分。Stable Diffusion 模型的权重是锁定的,在训练过程中它们是不变的。在训练期间仅修改附加模块。

安装
从github上找到并把网址填到扩展里安装,安装完后记得点击 Apply and restart UI(https://github.com/Mikubill/sd-webui-controlnet
v2-c08d40337960bebab28092dce6b331b7_720w.webp
1.将ControlNet模型(.pt、.pth、.ckpt或.safetensors)放入models/ControlNet文件夹。
2.打开“txt2img”或“img2img”选项卡,写下您的提示。
3.按“刷新模型”,选择要使用的模型。(若没有出现,请尝试重新加载/重新启动webui)
4.上传您的图像并选择预处理器,完成。
目前,它支持完整型号和修剪型号。使用extract_controlnet.py从原始.pth文件中提取controlnet。
预训练模型:https://huggingface.co/lllyasviel/ControlNet/tree/main/models

界面介绍
v2-934c4f18855d9fbd10d25549d44158b4_720w.webp
开启 :选中此框以启用ControlNet。
颜色反转:交换黑色和白色。例如,它可以在您上传涂鸦时使用。ControlNet 需要黑色背景和白色涂鸦。如果您使用白色背景的外部软件创建涂鸦,则必须使用此选项。如果您使用 ControlNet 的界面创建涂鸦,则不需要使用此选项。
RGB转为BGR :用于检测用户导入图像中的颜色信息。有时图像中的颜色信息可能与扩展所期望的不同。如果您上传图像并使用预处理,则无需选中此框。
低显存:这将减缓ETA进程,但有助于使用更少的计算空间(显存小于8 GB VRAM建议使用),检查您是否用完了 GPU 内存,或者想要增加处理的图像数量。
推测模式:ControlNet自动识别图像(不需要提示和负面提示)与选定的预处理器。它强制 ControlNet 编码器遵循输入控制图(如深度、边缘等),即使没有提示也是如此。使用此模式时使用更高的步进,例如50,但是这个效果不一定好。
权重(Weight):代表使用 ControlNet 生成图片时被应用的权重占比。
引导介入时机(Guidance Start):在理解此功能之前,我们应该先知道生成图片的 Sampling steps 采样步数功能,步数代表生成一张图片要刷新计算多少次,Guidance Start(T) 设置为 0 即代表开始时就介入,默认为 0,设置为 0.5 时即代表 ControlNet 从 50% 步数时开始介入计算。
引导退出时机(Guidance End):和引导介入时机相对应,如设置为1,则表示在100%计算完时才会退出介入也就是不退出,默认为 1,可调节范围 0-1,如设置为 0.8 时即代表从80% 步数时退出介入。
v2-557a54044f165ca8d0ec1a7e0b043173_720w.webp
调整大小模式提供了调整ControlNet大小和上传图像的纵横比。
Just Resize:不保留纵横比的情况下,改变ControlNet图像的大小以匹配Txt2Img设置的宽度和高度。这包括拉伸或压缩图像以适应指定的尺寸。
Scale to Fit (Inner Fit):调整ControlNet图像的大小以适应Txt2Image的尺寸。它将调整图像的大小,直到它能够适应Txt2Image设置的宽度和高度。
Envelope (Outer Fit):调整Txt2Image的大小以适应ControlNet图像的尺寸。它将调整图像的大小,直到Txt2Image设置可以适合ControlNet图像。
画布宽度 和 画布高度 提供手动创建绘图或草图以,不上传任何图像(最好使用 Scribble 预处理器以获得良好的输出)。它会调整空白画布的大小来进行绘制,不会影响上传的原始图像。
v2-7468dde77697fbb5543c4e56149acb41_720w.webp
预览图片处理结果:能够快速查看选择的预处理器是如何将上传的图像或绘图转换为 ControlNet的检测图。对在渲染输出图像之前尝试各种预处理器有用,可节省我们的时间。
隐藏处理结果:删除预览图像。
v2-937665d029d4e7197cbc5c4e18945937_720w.webp
预处理器和模型是ControlNet的主要选项。
预处理器:用于对输入图像进行预处理,例如检测边缘、深度和法线贴图。None使用输入图像作为控制图。 根据所需的输出,用户可以选择相应的控制方法。
模型:如果您选择了预处理器,您通常会选择相应的模型。但是它并不限制你混合和匹配所有的预处理器和模型,但是混合多了就会产生负面效果,所以最好使用更加匹配的模型并且越少越好。ControlNet模型与在AUTOMATIC1111 GUI顶部选择的稳定扩散模型一起使用。

预处理器
下面我们介绍几个常用的 ControlNet,并在下面举例说明如何使用它。

1、Canny边缘检测
Canny通过使用边缘检测器创建高对比度区域的轮廓来检测输入图像。线条可以捕捉到非常详细的信息,但如果你的图像背景中有一些物体,它很可能会检测到不需要的物体。所以背景中物体越少效果越好。用于此预处理器的最佳模型是control_sd15_canny。
v2-b1c53af984360b0217ccd3e2c4887ad6_720w.webp
2、Depth & Depth Leres
这个预处理器有助于生成输入图像的深度估计。深度通常用于控制图像内物体的空间定位。浅色区域意味着它离用户更近,而深色区域则离用户更远。
在大图像时它可能会丢失图像内部的细节(面部表情等)。一般会与control_sd15_depth模型组合使用。Midas Resolution函数用于增加或减少detectmap中的大小和细节级别。它的级别越高,将使用更多的VRAM,但可以生成更高质量的图像,反之亦然。
Depth Leres有与Depth 相同的基本概念,但在地图中包含更广泛的范围。但有时它会从图片中捕获了太多信息,可能会生成与原始图像略有不同的图像。所以最好先试用两种预处理器,然后决定哪一种。
v2-9a694ed81408f57cb3dac6ea6d32a11f_720w.webp
3、HED (Holistically-Nested Edge Detection)
Hed可以在物体周围创建清晰和精细的边界,输出类似于Canny,但减少了噪声和更柔软的边缘。它的有效性在于能够捕捉复杂的细节和轮廓,同时保留细节特征(面部表情、头发、手指等)。Hed预处理器可用于修改图像的风格和颜色。用于此预处理器的最佳模型是control_sd15_hed。
v2-1c2337626e557a396beff1e7a1c74b5a_720w.webp
4、MLSD ( Mobile Line Segment Detection)
MLSD Preprocessor 最适合生成强有力的线条,这些线条能够检测出需要独特和刚性轮廓的建筑和其他人造作品。但是它不适用于处理非刚性或弯曲的物体。MLSD适用于生成室内布局或建筑结构,因为它可以突出直线和边缘。用于此预处理器的最佳模型是control_sd15_mlsd。
v2-523d96396c2af3d266688bc27f941c1d_720w.webp
5、Normal map
法线图使用了三种主要颜色(红、绿、蓝),通过不同的角度来精确定位物体的粗糙度和光滑程度。它生成法线图的基本估计,可以保留相当多的细节,但可能会产生意想不到的结果,因为法线图完全来自图像,而不是在3D建模软件中构建的。
法线图有利于突出复杂的细节和轮廓,并且在定位对象方面也很有效,特别是在接近度和距离方面。“Normal Background Threshold”用于调整背景成分。设置一个更高的阈值可以移除背景的远处部分(将其混合成紫色)。降低阈值将命令AI保留甚至显示额外的背景元素。用于此预处理器的最佳模型是control_sd15_normal。
v2-f1e80b5281beced419c71ee884c8d1ff_720w.webp
6、OpenPose
这个预处理器生成了一个基本的骨骼火柴人形象。这种技术被广泛采用,因为多个 OpenPose骨架可以组合成一个图像,这有助于引导稳定扩散生成多个一致的主题。骨架图有很多关节点,每个点代表如下图所示。
v2-5979d8f2284d698c10c55646546816ac_720w.webp
7、Scribble
涂鸦的目的是从简单的黑白线条画和草图生成图像。用户也可以使用“Canvas”选项创建特定大小的空白画布,用于手动素描(也可以直接上传图像)。如果草图和绘图由白色背景上的黑线组成,则需要选中“Invert Input Color”复选框。用于这个预处理器的最佳模型是control_sd15_openpose。
v2-dfca58146adafab31b4a77037647fa56_720w.webp
8、Segmentation
分割预处理器检测并将上传的图像分割为同一图像内的段或区域。该模型在生成一组新的图像时,将detectmap图像应用于文本提示。用于此预处理器的最佳模型是control_sd15_seg。
v2-5347107433e8bd44fba0ab6101a36b83_720w.webp
附录:预处理器与对应模型清单
v2-2f68a20f9ff5f97601b90e4df3f6e9f8_720w.webp
总结
使用AI绘图工具Stable Diffusion确实能提高美术工作者的生产效率,但是请记住:人工智能,没有人工就没有智能。Stable Diffusion并不是简单易上手的APP,我们需要花费一定的时间和精力去学习和不断调试,才能使其真正为我们所用,高效产出效果符合需求的图片。

最后,我为大家简单罗列一下使用SD的几项核心能力:
1.Github使用能力,使用者在熟练掌握Github开源项目的安装、调参、排错、编程环境设置等技能后,就不会在SD报错时六神无主了。
2.基础出图调试能力,这项能力能够让使用者无需协助就能自行摸索稳定输出可用的图片。
3.Controlnet构图能力,基于Controlnet的构图控制是美术从业者驾驭SD的缰绳,不会用Controlnet,你只会被随机噪声牵着走。
4.学习插件并组合使用的能力。
5.Lora等小模型的训练能力(进阶)。

如本文对您有帮助,欢迎将其分享给需要的朋友~关注我,接下来会分享更多关于Stable Diffusion的进阶内容和商业落地项目。

站在巨人的肩膀上

随机推荐

最新主题

60 回复

admin
2023-11-30 19:44:21
楼主
GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI


Stable Diffusion web UI
A browser interface based on Gradio library for Stable Diffusion.
[color=var(--fgColor-accent, var(--color-accent-fg))][/url]
[color=var(--fgColor-accent, var(--color-accent-fg))]Features
  • Original txt2img and img2img modes
  • One click install and run script (but you still must install python and git)
  • Outpainting
  • Inpainting
  • Color Sketch
  • Prompt Matrix
  • Stable Diffusion Upscale
  • Attention, specify parts of text that the model should pay more attention to
    • a man in a ((tuxedo)) - will pay more attention to tuxedo
    • a man in a (tuxedo:1.21) - alternative syntax
    • select text and press Ctrl+Up or Ctrl+Down (or Command+Up or Command+Down if you're on a MacOS) to automatically adjust attention to selected text (code contributed by anonymous user)
  • Loopback, run img2img processing multiple times
  • X/Y/Z plot, a way to draw a 3 dimensional plot of images with different parameters
  • Textual Inversion
    • have as many embeddings as you want and use any names you like for them
    • use multiple embeddings with different numbers of vectors per token
    • works with half precision floating point numbers
    • train embeddings on 8GB (also reports of 6GB working)
  • Extras tab with:
    • GFPGAN, neural network that fixes faces
    • CodeFormer, face restoration tool as an alternative to GFPGAN
    • RealESRGAN, neural network upscaler
    • ESRGAN, neural network upscaler with a lot of third party models
    • SwinIR and Swin2SR ([color=var(--fgColor-accent, var(--color-accent-fg))]see here), neural network upscalers
    • LDSR, Latent diffusion super resolution upscaling
  • Resizing aspect ratio options
  • Sampling method selection
    • Adjust sampler eta values (noise multiplier)
    • More advanced noise setting options
  • Interrupt processing at any time
  • 4GB video card support (also reports of 2GB working)
  • Correct seeds for batches
  • Live prompt token length validation
  • Generation parameters
    • parameters you used to generate images are saved with that image
    • in PNG chunks for PNG, in EXIF for JPEG
    • can drag the image to PNG info tab to restore generation parameters and automatically copy them into UI
    • can be disabled in settings
    • drag and drop an image/text-parameters to promptbox
  • Read Generation Parameters Button, loads parameters in promptbox to UI
  • Settings page
  • Running arbitrary python code from UI (must run with --allow-code to enable)
  • Mouseover hints for most UI elements
  • Possible to change defaults/mix/max/step values for UI elements via text config
  • Tiling support, a checkbox to create images that can be tiled like textures
  • Progress bar and live image generation preview
    • Can use a separate neural network to produce previews with almost none VRAM or compute requirement
  • Negative prompt, an extra text field that allows you to list what you don't want to see in generated image
  • Styles, a way to save part of prompt and easily apply them via dropdown later
  • Variations, a way to generate same image but with tiny differences
  • Seed resizing, a way to generate same image but at slightly different resolution
  • CLIP interrogator, a button that tries to guess prompt from an image
  • Prompt Editing, a way to change prompt mid-generation, say to start making a watermelon and switch to anime girl midway
  • Batch Processing, process a group of files using img2img
  • Img2img Alternative, reverse Euler method of cross attention control
  • Highres Fix, a convenience option to produce high resolution pictures in one click without usual distortions
  • Reloading checkpoints on the fly
  • Checkpoint Merger, a tab that allows you to merge up to 3 checkpoints into one
  • [color=var(--fgColor-accent, var(--color-accent-fg))]Custom scripts with many extensions from community
  • [color=var(--fgColor-accent, var(--color-accent-fg))]Composable-Diffusion, a way to use multiple prompts at once
    • separate prompts using uppercase AND
    • also supports weights for prompts: a cat :1.2 AND a dog AND a penguin :2.2
  • No token limit for prompts (original stable diffusion lets you use up to 75 tokens)
  • DeepDanbooru integration, creates danbooru style tags for anime prompts
  • [color=var(--fgColor-accent, var(--color-accent-fg))]xformers, major speed increase for select cards: (add --xformers to commandline args)
  • via extension: [color=var(--fgColor-accent, var(--color-accent-fg))]History tab: view, direct and delete images conveniently within the UI
  • Generate forever option
  • Training tab
    • hypernetworks and embeddings options
    • Preprocessing images: cropping, mirroring, autotagging using BLIP or deepdanbooru (for anime)
  • Clip skip
  • Hypernetworks
  • Loras (same as Hypernetworks but more pretty)
  • A separate UI where you can choose, with preview, which embeddings, hypernetworks or Loras to add to your prompt
  • Can select to load a different VAE from settings screen
  • Estimated completion time in progress bar
  • API
  • Support for dedicated [color=var(--fgColor-accent, var(--color-accent-fg))]inpainting model by RunwayML
  • via extension: [color=var(--fgColor-accent, var(--color-accent-fg))]Aesthetic Gradients, a way to generate images with a specific aesthetic by using clip images embeds (implementation of [color=var(--fgColor-accent, var(--color-accent-fg))]https://github.com/vicgalle/stable-diffusion-aesthetic-gradients)
  • [color=var(--fgColor-accent, var(--color-accent-fg))]Stable Diffusion 2.0 support - see [color=var(--fgColor-accent, var(--color-accent-fg))]wiki for instructions
  • [color=var(--fgColor-accent, var(--color-accent-fg))]Alt-Diffusion support - see [color=var(--fgColor-accent, var(--color-accent-fg))]wiki for instructions
  • Now without any bad letters!
  • Load checkpoints in safetensors format
  • Eased resolution restriction: generated image's dimension must be a multiple of 8 rather than 64
  • Now with a license!
  • Reorder elements in the UI from settings screen
[color=var(--fgColor-accent, var(--color-accent-fg))]Installation and Running
Make sure the required [color=var(--fgColor-accent, var(--color-accent-fg))]dependencies are met and follow the instructions available for:
Alternatively, use online services (like Google Colab):
[color=var(--fgColor-accent, var(--color-accent-fg))]Installation on Windows 10/11 with NVidia-GPUs using release package
  • Download sd.webui.zip from [color=var(--fgColor-accent, var(--color-accent-fg))]v1.0.0-pre and extract it's contents.
  • Run update.bat.
  • Run run.bat.
For more details see [color=var(--fgColor-accent, var(--color-accent-fg))]Install-and-Run-on-NVidia-GPUs
[color=var(--fgColor-accent, var(--color-accent-fg))]Automatic Installation on Windows
  • Install [color=var(--fgColor-accent, var(--color-accent-fg))]Python 3.10.6 (Newer version of Python does not support torch), checking "Add Python to PATH".
  • Install [color=var(--fgColor-accent, var(--color-accent-fg))]git.
  • Download the stable-diffusion-webui repository, for example by running git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git.
  • Run webui-user.bat from Windows Explorer as normal, non-administrator, user.
[color=var(--fgColor-accent, var(--color-accent-fg))]Automatic Installation on Linux
  • Install the dependencies:
[color=var(--color-prettylights-syntax-comment)]# Debian-based:sudo apt install wget git python3 python3-venv libgl1 libglib2.0-0[color=var(--color-prettylights-syntax-comment)]# Red Hat-based:sudo dnf install wget git python3[color=var(--color-prettylights-syntax-comment)]# Arch-based:sudo pacman -S wget git python3

  • Navigate to the directory you would like the webui to be installed and execute the following command:
wget -q https://raw.githubusercontent.co ... bui/master/webui.sh

  • Run webui.sh.
  • Check webui-user.sh for options.
[color=var(--fgColor-accent, var(--color-accent-fg))]Installation on Apple Silicon
Find the instructions [color=var(--fgColor-accent, var(--color-accent-fg))]here.
[color=var(--fgColor-accent, var(--color-accent-fg))]Contributing
Here's how to add code to this repo: [color=var(--fgColor-accent, var(--color-accent-fg))]Contributing
[color=var(--fgColor-accent, var(--color-accent-fg))]Documentation
The documentation was moved from this README over to the project's [color=var(--fgColor-accent, var(--color-accent-fg))]wiki.
For the purposes of getting Google and other search engines to crawl the wiki, here's a link to the (not for humans) [color=var(--fgColor-accent, var(--color-accent-fg))]crawlable wiki.
[color=var(--fgColor-accent, var(--color-accent-fg))]Credits
Licenses for borrowed code can be found in Settings -> Licenses screen, and also in html/licenses.html file.

Stable Diffusion web UI is a browser interface for Stable Diffusion based on Gradio library.
[color=var(--fgColor-accent, var(--color-accent-fg))]Setup
[color=var(--fgColor-accent, var(--color-accent-fg))]Reproducing images / troubleshooting
[color=var(--fgColor-accent, var(--color-accent-fg))]Usage
[color=var(--fgColor-accent, var(--color-accent-fg))]Developers
  • [color=var(--fgColor-accent, var(--color-accent-fg))]API
  • [color=var(--fgColor-accent, var(--color-accent-fg))]Developing custom scripts
  • [color=var(--fgColor-accent, var(--color-accent-fg))]Developing extensions
  • [color=var(--fgColor-accent, var(--color-accent-fg))]Localization
  • [color=var(--fgColor-accent, var(--color-accent-fg))]Contributing
  • [color=var(--fgColor-accent, var(--color-accent-fg))]Tests
  • [color=var(--fgColor-accent, var(--color-accent-fg))]Dependencies
    • [color=var(--fgColor-accent, var(--color-accent-fg))]xFormers



admin
2023-11-30 19:44:22
楼主
GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI

stable-diffusion-webui-master.zip (1.76 MB, 下载次数: 0)
Stable Diffusion web UI
A browser interface based on Gradio library for Stable Diffusion.
[color=var(--fgColor-accent, var(--color-accent-fg))][/url]
[color=var(--fgColor-accent, var(--color-accent-fg))]Features
  • Original txt2img and img2img modes
  • One click install and run script (but you still must install python and git)
  • Outpainting
  • Inpainting
  • Color Sketch
  • Prompt Matrix
  • Stable Diffusion Upscale
  • Attention, specify parts of text that the model should pay more attention to
    • a man in a ((tuxedo)) - will pay more attention to tuxedo
    • a man in a (tuxedo:1.21) - alternative syntax
    • select text and press Ctrl+Up or Ctrl+Down (or Command+Up or Command+Down if you're on a MacOS) to automatically adjust attention to selected text (code contributed by anonymous user)
  • Loopback, run img2img processing multiple times
  • X/Y/Z plot, a way to draw a 3 dimensional plot of images with different parameters
  • Textual Inversion
    • have as many embeddings as you want and use any names you like for them
    • use multiple embeddings with different numbers of vectors per token
    • works with half precision floating point numbers
    • train embeddings on 8GB (also reports of 6GB working)
  • Extras tab with:
    • GFPGAN, neural network that fixes faces
    • CodeFormer, face restoration tool as an alternative to GFPGAN
    • RealESRGAN, neural network upscaler
    • ESRGAN, neural network upscaler with a lot of third party models
    • SwinIR and Swin2SR ([color=var(--fgColor-accent, var(--color-accent-fg))]see here), neural network upscalers
    • LDSR, Latent diffusion super resolution upscaling
  • Resizing aspect ratio options
  • Sampling method selection
    • Adjust sampler eta values (noise multiplier)
    • More advanced noise setting options
  • Interrupt processing at any time
  • 4GB video card support (also reports of 2GB working)
  • Correct seeds for batches
  • Live prompt token length validation
  • Generation parameters
    • parameters you used to generate images are saved with that image
    • in PNG chunks for PNG, in EXIF for JPEG
    • can drag the image to PNG info tab to restore generation parameters and automatically copy them into UI
    • can be disabled in settings
    • drag and drop an image/text-parameters to promptbox
  • Read Generation Parameters Button, loads parameters in promptbox to UI
  • Settings page
  • Running arbitrary python code from UI (must run with --allow-code to enable)
  • Mouseover hints for most UI elements
  • Possible to change defaults/mix/max/step values for UI elements via text config
  • Tiling support, a checkbox to create images that can be tiled like textures
  • Progress bar and live image generation preview
    • Can use a separate neural network to produce previews with almost none VRAM or compute requirement
  • Negative prompt, an extra text field that allows you to list what you don't want to see in generated image
  • Styles, a way to save part of prompt and easily apply them via dropdown later
  • Variations, a way to generate same image but with tiny differences
  • Seed resizing, a way to generate same image but at slightly different resolution
  • CLIP interrogator, a button that tries to guess prompt from an image
  • Prompt Editing, a way to change prompt mid-generation, say to start making a watermelon and switch to anime girl midway
  • Batch Processing, process a group of files using img2img
  • Img2img Alternative, reverse Euler method of cross attention control
  • Highres Fix, a convenience option to produce high resolution pictures in one click without usual distortions
  • Reloading checkpoints on the fly
  • Checkpoint Merger, a tab that allows you to merge up to 3 checkpoints into one
  • [color=var(--fgColor-accent, var(--color-accent-fg))]Custom scripts with many extensions from community
  • [color=var(--fgColor-accent, var(--color-accent-fg))]Composable-Diffusion, a way to use multiple prompts at once
    • separate prompts using uppercase AND
    • also supports weights for prompts: a cat :1.2 AND a dog AND a penguin :2.2
  • No token limit for prompts (original stable diffusion lets you use up to 75 tokens)
  • DeepDanbooru integration, creates danbooru style tags for anime prompts
  • [color=var(--fgColor-accent, var(--color-accent-fg))]xformers, major speed increase for select cards: (add --xformers to commandline args)
  • via extension: [color=var(--fgColor-accent, var(--color-accent-fg))]History tab: view, direct and delete images conveniently within the UI
  • Generate forever option
  • Training tab
    • hypernetworks and embeddings options
    • Preprocessing images: cropping, mirroring, autotagging using BLIP or deepdanbooru (for anime)
  • Clip skip
  • Hypernetworks
  • Loras (same as Hypernetworks but more pretty)
  • A separate UI where you can choose, with preview, which embeddings, hypernetworks or Loras to add to your prompt
  • Can select to load a different VAE from settings screen
  • Estimated completion time in progress bar
  • API
  • Support for dedicated [color=var(--fgColor-accent, var(--color-accent-fg))]inpainting model by RunwayML
  • via extension: [color=var(--fgColor-accent, var(--color-accent-fg))]Aesthetic Gradients, a way to generate images with a specific aesthetic by using clip images embeds (implementation of [color=var(--fgColor-accent, var(--color-accent-fg))]https://github.com/vicgalle/stable-diffusion-aesthetic-gradients)
  • [color=var(--fgColor-accent, var(--color-accent-fg))]Stable Diffusion 2.0 support - see [color=var(--fgColor-accent, var(--color-accent-fg))]wiki for instructions
  • [color=var(--fgColor-accent, var(--color-accent-fg))]Alt-Diffusion support - see [color=var(--fgColor-accent, var(--color-accent-fg))]wiki for instructions
  • Now without any bad letters!
  • Load checkpoints in safetensors format
  • Eased resolution restriction: generated image's dimension must be a multiple of 8 rather than 64
  • Now with a license!
  • Reorder elements in the UI from settings screen
[color=var(--fgColor-accent, var(--color-accent-fg))]Installation and Running
Make sure the required [color=var(--fgColor-accent, var(--color-accent-fg))]dependencies are met and follow the instructions available for:
Alternatively, use online services (like Google Colab):
[color=var(--fgColor-accent, var(--color-accent-fg))]Installation on Windows 10/11 with NVidia-GPUs using release package
  • Download sd.webui.zip from [color=var(--fgColor-accent, var(--color-accent-fg))]v1.0.0-pre and extract it's contents.
  • Run update.bat.
  • Run run.bat.
For more details see [color=var(--fgColor-accent, var(--color-accent-fg))]Install-and-Run-on-NVidia-GPUs
[color=var(--fgColor-accent, var(--color-accent-fg))]Automatic Installation on Windows
  • Install [color=var(--fgColor-accent, var(--color-accent-fg))]Python 3.10.6 (Newer version of Python does not support torch), checking "Add Python to PATH".
  • Install [color=var(--fgColor-accent, var(--color-accent-fg))]git.
  • Download the stable-diffusion-webui repository, for example by running git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git.
  • Run webui-user.bat from Windows Explorer as normal, non-administrator, user.
[color=var(--fgColor-accent, var(--color-accent-fg))]Automatic Installation on Linux
  • Install the dependencies:
[color=var(--color-prettylights-syntax-comment)]# Debian-based:sudo apt install wget git python3 python3-venv libgl1 libglib2.0-0[color=var(--color-prettylights-syntax-comment)]# Red Hat-based:sudo dnf install wget git python3[color=var(--color-prettylights-syntax-comment)]# Arch-based:sudo pacman -S wget git python3

  • Navigate to the directory you would like the webui to be installed and execute the following command:
wget -q https://raw.githubusercontent.co ... bui/master/webui.sh

  • Run webui.sh.
  • Check webui-user.sh for options.
[color=var(--fgColor-accent, var(--color-accent-fg))]Installation on Apple Silicon
Find the instructions [color=var(--fgColor-accent, var(--color-accent-fg))]here.
[color=var(--fgColor-accent, var(--color-accent-fg))]Contributing
Here's how to add code to this repo: [color=var(--fgColor-accent, var(--color-accent-fg))]Contributing
[color=var(--fgColor-accent, var(--color-accent-fg))]Documentation
The documentation was moved from this README over to the project's [color=var(--fgColor-accent, var(--color-accent-fg))]wiki.
For the purposes of getting Google and other search engines to crawl the wiki, here's a link to the (not for humans) [color=var(--fgColor-accent, var(--color-accent-fg))]crawlable wiki.
[color=var(--fgColor-accent, var(--color-accent-fg))]Credits
Licenses for borrowed code can be found in Settings -> Licenses screen, and also in html/licenses.html file.

Stable Diffusion web UI is a browser interface for Stable Diffusion based on Gradio library.
[color=var(--fgColor-accent, var(--color-accent-fg))]Setup
[color=var(--fgColor-accent, var(--color-accent-fg))]Reproducing images / troubleshooting
[color=var(--fgColor-accent, var(--color-accent-fg))]Usage
[color=var(--fgColor-accent, var(--color-accent-fg))]Developers
  • [color=var(--fgColor-accent, var(--color-accent-fg))]API
  • [color=var(--fgColor-accent, var(--color-accent-fg))]Developing custom scripts
  • [color=var(--fgColor-accent, var(--color-accent-fg))]Developing extensions
  • [color=var(--fgColor-accent, var(--color-accent-fg))]Localization
  • [color=var(--fgColor-accent, var(--color-accent-fg))]Contributing
  • [color=var(--fgColor-accent, var(--color-accent-fg))]Tests
  • [color=var(--fgColor-accent, var(--color-accent-fg))]Dependencies
    • [color=var(--fgColor-accent, var(--color-accent-fg))]xFormers



6w1qw0524
2023-11-30 19:55:10
帮帮顶顶!!
认真看完了
vdfgm5j97
2023-11-30 20:18:36
有竞争才有进步嘛
lopcn1816
2023-11-30 21:00:57
真的很不错
admin
2023-11-30 21:15:43
楼主
汉化包

VinsonLaro/stable-diffusion-webui-chinese: stable-diffusion-webui 的汉化扩展 (github.com) stable-diffusion-webui-chinese-main.zip (110.18 KB, 下载次数: 0)
此项目为[color=var(--fgColor-accent, var(--color-accent-fg))]Stable Diffusion Web UI简体中文扩展
当前版本为1024,即基于官方webui和自用插件的本地化模板,于10月24日之前的最新版本进行的汉化。
本人精力有限不可能每个功能都体验过,然后根据具体功能来翻译,所以有翻译得不对或者更好的翻译请联系我。
翻译结果来自chatGPT、有道翻译和网络检索。
[color=var(--fgColor-accent, var(--color-accent-fg))]包含以下扩展翻译
[color=var(--fgColor-accent, var(--color-accent-fg))]ControlNet 版本:150d6f14 2023-10-24 01:56:12
[color=var(--fgColor-accent, var(--color-accent-fg))]openpose-editor 版本:be6f54fa 2023-10-16 05:47:30
[color=var(--fgColor-accent, var(--color-accent-fg))]multidiffusion-upscaler 版本:61c8114b 2023-10-20 19:19:34
[color=var(--fgColor-accent, var(--color-accent-fg))]artists-to-study 版本:5cd19f68 (Mon Jun 26 08:38:08 2023)
[color=var(--fgColor-accent, var(--color-accent-fg))]dataset-tag-editor 版本:7a2f4c53 (Mon Jun 5 10:12:00 2023)
[color=var(--fgColor-accent, var(--color-accent-fg))]lora-block-weight 版本:33598772 2023-10-04 19:15:20
[color=var(--fgColor-accent, var(--color-accent-fg))]segment-anything 版本:d80220ec 2023-10-10 16:17:18
[color=var(--fgColor-accent, var(--color-accent-fg))]vectorstudio 版本:03535f64 2023-05-28 22:27:48
[color=var(--fgColor-accent, var(--color-accent-fg))]posex 版本:292f92d5 2023-05-03 16:59:57
[color=var(--fgColor-accent, var(--color-accent-fg))]安装说明[color=var(--fgColor-accent, var(--color-accent-fg))]方法1:通过WebUI拓展进行安装
1.打开stable diffusion webui,进入"Extensions"选项卡
2.点击"Install from URL",注意"URL for extension's git repository"下方的输入框
4.点击下方的黄色按钮"Install"即可完成安装,然后重启WebUI(点击"Install from URL"左方的"Installed",然后点击黄色按钮"Apply and restart UI"网页下方的"Reload UI"完成重启)
5.点击"Settings",左侧点击"User interface"界面,在界面里最下方的"Localization (requires restart)",选择"Chinese-All"或者"Chinese-English"
6.点击界面最上方的黄色按钮"Apply settings",再点击右侧的"Reload UI"即可完成汉化
[color=var(--fgColor-accent, var(--color-accent-fg))]方法2:直接复制翻译好的本地化模板
2.进入下载好的文件夹,把"localizations"文件夹内的"Chinese-All.json"和"Chinese-English.json"复制到"stable-diffusion-webui\localizations"目录下
3.点击"Settings",左侧点击"User interface"界面,在界面里最下方的"Localization (requires restart)",选择"Chinese-All"或者"Chinese-English"
4.点击界面最上方的黄色按钮"Apply settings",再点击右侧的"Reload UI"即可完成汉化
[color=var(--fgColor-accent, var(--color-accent-fg))]Star History
[color=var(--fgColor-accent, var(--color-accent-fg))] 68747470733a2f2f6170692e737461722d686973746f72792e636f6d2f7376673f7265706f733d56696e736f6e4c61726f2f737461626c652d646966667573696f6e2d77656275692d6368696e657365264461746526747970653d44617465

学习了,不错
对我很有帮助
回复支持是对作者的最有力的支持
路过
yshsnmqs
2023-11-30 22:59:11
不错
vafdhqyy
2023-11-30 23:22:07
学习了,不错
对我很有帮助
鼓励一下
没看完~~~~~~ 先顶,好同志
劈筒
2023-12-1 01:18:50
回复支持是对作者的最有力的支持
回复支持是对作者的最有力的支持
顶一下
貉燠
2023-12-1 02:55:20
LZ说的很不错
不错,支持下楼主
相当不错
前排支持下
有竞争才有进步嘛
顶上去
谢谢楼主!
谢谢楼主!
支持作者!
愈饴
2023-12-1 05:29:30
不错,支持下楼主
尘_埃
2023-12-1 06:18:27
学习了,不错
支持作者!
戕志
2023-12-1 07:29:56
相当不错
认真看完了
顶上去
认真看完了
不错不错,楼主您辛苦了。。。
融志
2023-12-1 09:36:44
支持楼主发帖!
12下一页
高级模式
游客
返回顶部