2025년 2월 이후로 업데이트 없어서 사살상 현재는 죽은 상태
[링크 : https://github.com/AUTOMATIC1111/stable-diffusion-webui]
1.7.0 으로 설치시도
에러 메시지 대응은 아래 명령으로 venv 를 실행해주고 web_ui.sh 실행하면 되고
| cannot activate python venv, aborting.. |
| cd stable-diffusion-webui python3 -m venv venv/ |
[링크 : https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/1120]
뜬금없이 저장소 계정을 물어보는건, 임의의 브랜치를 만들어서 먼가를 더 받거나 할 수 있도록 하면 해결
| Installing open_clip Cloning Stable Diffusion into /mnt/Downloads/stable-diffusion-webui/repositories/stable-diffusion-stability-ai... Cloning into '/mnt/Downloads/stable-diffusion-webui/repositories/stable-diffusion-stability-ai'... Username for 'https://github.com': Password for 'https://github.com': remote: Repository not found. fatal: Authentication failed for 'https://github.com/Stability-AI/stablediffusion.git/' |
| git switch dev |
[링크 : https://www.reddit.com/r/StableDiffusion/comments/1pu9ef7/please_help_error_128/?tl=ko]
요건 그냥 패키지 깔아주면 된다고 한다.
| Cannot locate TCMalloc (improves CPU memory usage) Cannot locate TCMalloc. Do you have tcmalloc or google-perftool installed on your system? (improves CPU memory usage) |
[링크 : https://www.clien.net/service/board/cm_aigurim/18066331]
localhost:7860 만되는건 --server-name 으로 해결
| $ ./webui.sh --server-name=0.0.0.0 |
[링크 : https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/7558]
기본 설정으로는 512 x 512 인데, 한장에 대략 8초 정도 걸린다.

혹시 다이내아 그려보려고 하는데 영 이상하고 내가 원하는대로 안되서
ai의 도움을 받아서 해보는데

음.. 100% 인데 153W라..
아무튼 메모리 생각외로 많이 먹...네?

1024x768 생성하는데

42.5초. 근데 나의(?) 다이애나는 이렇지 않아!!

| Time taken: 42.5 sec. A: 6.62 GB, R: 7.11 GB, Sys: 7.3/10.9043 GB (67.0%) |
음.. 좀 귀찮은데 ㅋㅋ
[링크 : https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/8293]
[링크 : https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/1621]
[링크 : https://github.com/papuSpartan/stable-diffusion-webui-distributed]
모델 교체법은 찾아봐야겠다.
[링크 : https://civitai.com/models/795765/illustrious-xl?modelVersionId=889818]
'프로그램 사용 > ai 프로그램' 카테고리의 다른 글
| stable diffusion + pytorch 관련 조사 (0) | 2026.05.04 |
|---|---|
| stable diffusion 관련 (0) | 2026.05.02 |
| opanai api로 local LLM 하니 똑똑해진 기분 (0) | 2026.05.02 |
| llama.cpp multi modal 시도 (0) | 2026.05.02 |
| stable diffusion은 일단 보류 (0) | 2026.04.30 |
