尽管知道我这台老本子可能运行不了图片生成这类吃GPU的ai工具,但还是抱着尝试的心态体验了一次。
目的:体验Stable Diffusion本地ai生成
环境:macbookpro,macOS12,intel芯片2.4G四核,8G内存,集成显卡。
需要安装包:python3.10以上
先说结果:生成一张不复杂的图片,需要10-20分钟,期间机器卡爆,鼠标都动不了。不复杂的图片指的是描述词为三个英文单词。生成的图就不贴了,未经训练的,辣眼睛。图生图大概需要10分钟。参数限制了出图为1个,尺寸为300。
接下来是配置过程:
Stable Diffusion(以下简称SD)跑起来之后回头看过程,其实真的很简单
1、安装python3.10以上版本,可以去官网下,我的电脑自带了python3,且是pyton3.9,没细看SD的运行要求,直接装的,结果后面总是提醒pip/pip3版本需要升级,我把这俩都升级了最后还是这提示,才意识到是python版本低了。
2、安装git,官网装,似乎mac也自带了,我不记得什么时候有自己装过。
3、安装PyTorch,一个开源的Python机器学习库
pip3 install --pre torch torchvision torchaudio --index-url https://download.pytorch.org/whl/nightly/cpu
4、安装stable diffusion webui
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
5、模型文件超大4G,可以单独下载https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned-emaonly.safetensors,下载完成后复制到models/Stable Diffusion目录下。
6、等待全部装完,进入第4步安装目录执行命令./webui.sh
我这里需要添加参数 ./webui.sh --precision full --no-half
,否则生成图片的时候会报错RuntimeError: "LayerNormKernelImpl" not implemented for 'Half'
。对于这个错误网上也有对应的解决方案,就是牺牲出图质量,没办法,硬件条件在这摆着。
总结:只要python安装对了,剩下的有魔法加持的情况下,只需要静静地等着装完就行,没有魔法会麻烦一点,各种包要自己手动下,完了还要装,还有各种配置,网上有整个打包好了的,结果只有百度网盘的,没vip的只好放弃,毕竟7G的包想要从百度网盘下还是要费点时间的。
补充:
本地汉化:https://github.com/dtlnor/stable-diffusion-webui-localization-zh_CN
先下载按住,然后在设置中选择中文即可。
看了个帖子https://blog.csdn.net/caijinghuacaijinghua/article/details/129264496,修改代码中cuda为cpu,似乎没那么卡了。
/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/models/diffusion/ddim.py
// 第11行
def __init__(self, model, schedule="linear", device=torch.device("cuda"), **kwargs):
//改成
def __init__(self, model, schedule="linear", device=torch.device("cpu"), **kwargs):
建议:硬件不达标的情况下还是不要在本地玩了,电脑风扇半年没动的,今天跟空调暖气一样呼呼的吹。对于ai绘图工具,你可以选择不用,但不能没有。
本地界面