HowtoAI
ai-guide2026-04-10 5 min read

ComfyUI 설치부터 첫 이미지 생성까지: 초보 완전 가이드

🤖
HowtoAI 편집팀AI 전문 에디터

AI 기술을 누구나 쉽게 활용할 수 있도록 실전 가이드를 작성합니다. ChatGPT, Claude, AI 자동화, SEO 분야를 전문으로 다룹니다.

📅 2026-04-10⏱️ 5 min read🌐 how-toai.com
목차 보기

이미지 AI 좀 진지하게 다뤄보고 싶은데, 어디서 시작해야 할지 막막하셨죠?

저도 처음엔 Midjourney만 쓰다가 한계를 느끼고 ComfyUI로 넘어왔어요. 막상 설치하려고 보니까 README가 영어인 데다 용어가 어려워서 며칠을 헤맸거든요.

오늘은 그때 제가 알았으면 좋았을 정보들을 30분 가이드로 정리했어요. 따라 하면 오늘 안에 첫 이미지 생성까지 끝나요.

ComfyUI를 선택하는 이유

ComfyUI는 Stable Diffusion 계열 모델을 돌리는 노드 기반 인터페이스예요.

Midjourney 사용법 완벽 가이드와 비교하면 차이가 뚜렷해요:

  • Midjourney: 클라우드 기반, 월 10달러부터, 단순한 프롬프트
  • ComfyUI: 본인 PC에서 돌림, 무료, 노드로 디테일 제어

저는 둘 다 써봤는데, 결국 ComfyUI로 정착했어요. 이유는 비용도 비용이지만 워크플로우를 내가 100% 제어할 수 있다는 점이 컸어요.

ComfyUI 인터페이스의 노드 기반 워크플로우 화면

특히 LoRA, ControlNet, 인페인팅 같은 고급 기능을 자유롭게 조합할 수 있어요.

설치 전 체크리스트

설치 전에 확인할 항목 3가지예요.

1. 그래픽카드 사양

  • 최소: NVIDIA RTX 3060 8GB
  • 권장: RTX 4060 Ti 16GB 또는 RTX 4070 이상
  • 라데온: 가능하지만 ROCm 설정이 까다로워요

저는 RTX 5060 Ti 8GB로 SDXL을 1장당 5초에 생성하고 있어요. 4K 업스케일까지 포함해도 20초면 끝나요.

2. 디스크 공간

  • ComfyUI 자체: 5GB
  • SDXL 모델: 6.5GB (1개)
  • 추가 LoRA, ControlNet: 50GB 이상

SSD 100GB 정도는 비워두는 게 좋아요. 모델은 한 번 받으면 계속 늘어나거든요.

3. Python 환경

ComfyUI 포터블 버전을 받으면 Python이 내장돼 있어서 별도 설치가 필요 없어요. 초보자는 무조건 포터블 버전을 추천해요.

설치 5단계

1단계: 포터블 버전 다운로드

GitHub의 ComfyUI 공식 릴리스 페이지에서 Windows 포터블 버전(약 1.5GB)을 다운로드하세요.

압축을 풀면 ComfyUI_windows_portable 폴더가 생겨요. 이 폴더 안에서 모든 작업이 끝나요.

2단계: 베이스 모델 다운로드

처음에는 SDXL 베이스 모델 1개만 받아도 충분해요.

  • 추천: sd_xl_base_1.0.safetensors (Hugging Face에서 검색)
  • 크기: 6.5GB
  • 저장 위치: ComfyUI\models\checkpoints\ 폴더

다운로드가 끝나면 폴더에 그대로 넣기만 하면 돼요.

3단계: 실행

run_nvidia_gpu.bat 파일을 더블클릭하면 끝이에요.

검은 콘솔 창이 뜨고 잠시 후 자동으로 브라우저가 열려서 ComfyUI 인터페이스가 보일 거예요. 주소는 보통 http://127.0.0.1:8188이에요.

ComfyUI를 처음 실행했을 때 나타나는 기본 워크플로우 화면

4단계: ComfyUI Manager 설치

처음 실행하면 기본 기능만 있어요. ComfyUI Manager를 설치하면 모델/노드/워크플로우를 GUI로 관리할 수 있거든요.

설치 방법: custom_nodes 폴더에 ComfyUI-Manager를 git clone 하면 끝이에요.

저는 이거 설치 안 하고 며칠 고생했어요. 무조건 처음에 같이 설치하세요.

5단계: 첫 이미지 생성

기본 워크플로우가 이미 로드되어 있어요. 프롬프트만 바꿔서 "Queue Prompt" 버튼을 누르면 첫 이미지가 생성돼요.

추천 프롬프트:

  • positive: "a serene mountain landscape at sunset, cinematic lighting, 8k quality"
  • negative: "low quality, blurry, distorted"

5~10초 후에 오른쪽에 이미지가 나타나면 성공이에요.

설치 후 자주 막히는 부분

1. CUDA Out of Memory 에러

VRAM이 부족하다는 뜻이에요. 해결책 3가지:

  • 이미지 해상도 낮추기 (1024 → 768)
  • 배치 사이즈 1로 고정
  • --lowvram 플래그 추가 (run 배치 파일 수정)

2. 모델이 메뉴에 안 보임

models/checkpoints 폴더에 넣고 ComfyUI를 재시작해야 해요. 또는 Refresh 버튼을 누르세요.

3. 노드가 빨갛게 표시됨

해당 노드의 의존성 모델이 없다는 뜻이에요. ComfyUI Manager의 "Install Missing Custom Nodes"로 한 번에 해결돼요.

다음 단계: 워크플로우 확장

기본 텍스트→이미지가 익숙해지면 다음 단계로 넘어가세요.

  1. LoRA 추가: 특정 화풍이나 캐릭터 학습 모델
  2. ControlNet: 포즈, 깊이, 스케치로 이미지 제어
  3. 인페인팅: 부분만 수정
  4. 업스케일: 4K로 고해상도 변환

각 기능은 AI 이미지 생성 프롬프트 예시 모음에서 다룬 프롬프트 작성법과 함께 익히면 효과가 두 배예요.

마무리: 오늘 할 일 3가지

ComfyUI는 처음엔 복잡해 보이지만 첫 이미지를 뽑고 나면 오히려 쉽다는 게 느껴져요.

오늘 당장 할 일이에요:

  1. 포터블 버전 다운로드 (1.5GB)
  2. SDXL 베이스 모델 1개 받기 (6.5GB)
  3. 첫 이미지 생성 후 친구에게 자랑하기

30분이면 충분해요. 시작이 반이거든요.

2026년 5월 기준 모델 추천 - SDXL 이후

2026년 들어 ComfyUI 생태계에 큰 변화가 있었어요. SDXL이 여전히 표준이지만, FLUX.1과 SD 3.5가 점점 메인스트림으로 올라오고 있어요. 5월 기준 추천 베이스 모델은 이래요.

모델크기VRAM강점추천 용도
SDXL 1.06.5GB8GB안정성, LoRA 생태계 풍부일반 작업
FLUX.1-dev fp812GB16GB사진급 실사, 손·텍스트 정확실사 인물·썸네일
FLUX.1-schnell6.5GB12GB4스텝 초고속 생성빠른 시안
SD 3.5 Large17GB20GB복잡한 프롬프트 이해다중 객체
SD 1.5 (LCM)4GB4GB노트북 RTX 3050에서도 작동저사양 환경

저는 메인으로 FLUX.1-dev fp8 + Super Realism LoRA를 쓰고 있어요. RTX 5060 Ti 16GB에서 1장당 8~12초로 사진 같은 결과물이 나와요. 일반 SDXL은 5초인데 품질 차이가 크다고 느껴서 FLUX로 갈아탔어요.

워크플로우 5가지 — 단계별 추천 순서

ComfyUI는 노드 기반이라 워크플로우를 직접 짜는 게 매력이지만, 초보자는 검증된 워크플로우 5개를 순서대로 익히는 게 빨라요.

1단계: 기본 텍스트→이미지

가장 기본인 7노드 워크플로우예요. CheckpointLoader → CLIP Text Encode(긍정) → CLIP Text Encode(부정) → KSampler → VAE Decode → Save Image. 이 흐름이 모든 워크플로우의 베이스예요.

2단계: LoRA 적용

스타일이나 캐릭터를 추가 학습한 LoRA를 끼우는 워크플로우. LoraLoader 노드 1개만 추가하면 돼요. 같은 프롬프트라도 LoRA 하나로 완전히 다른 분위기가 나와요.

3단계: ControlNet

기존 이미지의 포즈·구도·선화를 유지하면서 새로 그리는 워크플로우. Preprocessor + ControlNet Apply 2개 노드 추가. 인물 포즈 통일에 결정적이에요.

4단계: 인페인팅

이미지의 특정 부분만 다시 그리는 워크플로우. 마스크 적용 + KSampler를 마스크 기반으로 동작시키면 돼요. 얼굴 수정, 배경 교체에 유용.

5단계: 4K 업스케일

생성한 이미지를 SUPIR이나 Ultimate SD Upscale로 4K까지 키우는 워크플로우. 썸네일이나 인쇄용으로 필요해요.

추천 LoRA·확장 노드 5가지

LoRA와 확장 노드는 무한히 많지만 초보자가 꼭 깔아야 할 5개만 추려봤어요.

  1. Super Realism LoRA: FLUX에 적용하면 인물 사진이 진짜 카메라로 찍은 것 같아요.
  2. Detail Tweaker LoRA: 디테일 강도를 슬라이더처럼 조절. 모든 모델에 호환.
  3. ComfyUI Manager: 노드·모델 GUI 관리. 사실상 필수.
  4. rgthree-comfy: 노드 그룹화, 색상 분류. 워크플로우가 복잡해지면 필요.
  5. WAS Node Suite: 100+ 유틸리티 노드. 텍스트 처리, 이미지 합성 등.

비교 — Midjourney·DALL-E vs ComfyUI

3개를 1년씩 써본 비교표예요.

항목MidjourneyDALL-E 3ComfyUI
월 비용10~60달러ChatGPT Plus 20달러0원 (전기료만)
시작 난이도매우 쉬움매우 쉬움어려움
제어 자유도낮음낮음매우 높음
모델 선택1개 (자체)1개 (자체)수천 개
상업적 사용유료 플랜가능모델별 라이선스 확인
사진 품질우수우수최상 (FLUX 기준)

저는 빠른 시안은 Midjourney, 본격 작업은 ComfyUI로 나눠 써요. ComfyUI는 진입 장벽이 높지만 한 번 익히면 비용·자유도에서 압도적이에요.

설치 후 자주 막히는 7가지 함정

  1. CUDA 버전 불일치: NVIDIA 드라이버 545 이상 + CUDA 12.x 권장. 그 이하면 FLUX 모델이 안 돌아가요.
  2. VRAM 부족 경고: 8GB 미만이면 --medvram 또는 --lowvram 플래그 필수. run 배치 파일 수정.
  3. 모델 폴더 경로 오류: models/checkpointsmodels/loras, models/controlnet 등 폴더별 위치 정확히 지키세요.
  4. 확장 노드 의존성 누락: ComfyUI Manager의 "Install Missing Custom Nodes"로 한 번에 해결.
  5. 워크플로우 JSON 호환성: 다른 사람 워크플로우 가져왔을 때 모델 경로가 안 맞으면 빨갛게 표시. 모델만 본인 것으로 바꾸면 돼요.
  6. 포트 충돌: 8188 포트가 다른 앱과 겹치면 --port 8189 같이 변경.
  7. Python 충돌: 시스템 Python과 ComfyUI 포터블 Python이 충돌 시, 환경변수 PATH에서 시스템 Python 제거.

자주 묻는 6가지 함정 질문

Q. ComfyUI로 만든 이미지를 상업적으로 써도 되나요? A. 베이스 모델 라이선스에 따라 달라요. SDXL은 상업 사용 가능, FLUX.1-dev는 비상업, FLUX.1-schnell은 상업 가능. 반드시 모델별 라이선스 확인.

Q. AMD 라데온 그래픽카드에서도 돌아가나요? A. 가능하지만 ROCm 설정이 까다로워요. Linux 환경 권장. Windows는 DirectML 사용 가능하지만 속도가 NVIDIA 대비 절반 이하.

Q. M1/M2 맥에서 돌아가나요? A. 돌아가지만 메모리 통합 구조라 16GB 이하면 SDXL 한 장에 30초 이상 걸려요. 32GB 이상 권장.

Q. 한 번 설치 후 업데이트는 어떻게 하나요? A. update 폴더의 update_comfyui.bat 더블클릭. 매주 한 번 정도 업데이트하면 새 기능 자동 적용.

Q. ControlNet 모델은 SDXL용·SD 1.5용이 다른가요? A. 네, 베이스 모델 호환성이 엄격해요. SDXL 모델에는 SDXL용 ControlNet만 동작.

Q. NSFW 필터링은 어떻게 되나요? A. ComfyUI 자체는 필터 없음. 모델에 따라 다르며, 본인이 NSFW Filter 노드를 워크플로우에 추가할 수 있어요.

90일 학습 로드맵

  • 1~7일차: 설치 + 기본 텍스트→이미지 안정화
  • 8~21일차: LoRA 5개 실험 + 본인 스타일 찾기
  • 22~35일차: ControlNet 활용 + 일관된 캐릭터 만들기
  • 36~60일차: 인페인팅 + 4K 업스케일 워크플로우 안정화
  • 61~90일차: 본인만의 자동화 워크플로우 1~2개 구축

90일이면 ComfyUI를 일상 도구로 쓸 수 있어요. 핵심은 한 번에 다 익히려 하지 말고 1단계씩 안정화하면서 올라가는 거예요.

VRAM별 권장 모델·워크플로우 매트릭스

VRAM 용량에 따라 최적 조합이 달라져요.

VRAM추천 모델추천 워크플로우1장 생성 시간
4GBSD 1.5 + LCM LoRA기본 t2i약 8초
6GBSD 1.5 + LCMt2i + 작은 LoRA약 6초
8GBSDXLt2i + LoRA약 7초
12GBSDXL + ControlNett2i + 인페인팅약 9초
16GBFLUX.1-dev fp8t2i + ControlNet + 업스케일약 12초
24GBFLUX.1-dev full + SD 3.5멀티모델 동시 운영약 15초

본인 그래픽카드 VRAM에 맞춰 시작 모델을 선택하세요. 8GB 미만이면 SDXL은 무리고 SD 1.5로 시작이 안전해요.

모델 다운로드 안전 사이트 정리

비공식 사이트의 모델은 악성코드 위험이 있어요. 검증된 사이트만 사용하세요.

  • Hugging Face: 공식 SDXL·FLUX·SD 3.5 베이스 모델
  • Civitai: LoRA·커뮤니티 모델 (다운로드 전 댓글·평점 확인)
  • GitHub 공식 릴리스: ComfyUI 본체와 확장 노드
  • 공식 Comfy 블로그: 신규 모델 가이드

특히 .pickletensors 확장자는 코드 실행 위험이 있으니 .safetensors만 다운로드하세요.

ComfyUI 학습 자료 추천 5가지

설치 후 빠르게 익히려면 외부 자료가 필수예요. 검증된 5가지예요.

  1. 공식 위키 (GitHub): 가장 정확하지만 영어
  2. YouTube "Latent Vision" 채널: 워크플로우 예제 풍부
  3. r/comfyui 서브레딧: 매일 신규 워크플로우 공유
  4. Civitai 워크플로우 갤러리: 모델별 검증된 워크플로우
  5. OpenArt.ai 워크플로우 마켓: 무료·유료 워크플로우 다운로드

이 5개만 활용해도 ComfyUI 학습 곡선이 1/3로 줄어요. 특히 Civitai와 OpenArt는 다른 사람 워크플로우를 다운로드해서 분해·재조립하면서 배우는 게 가장 빠른 학습법이에요.

작업별 추천 단축키 정리

ComfyUI에서 자주 쓰는 단축키 5개예요. 익히면 작업 속도가 2배 빨라져요.

  • Ctrl+Enter: Queue Prompt 즉시 실행
  • Ctrl+S: 워크플로우 JSON 저장
  • Ctrl+O: 저장된 워크플로우 불러오기
  • Ctrl+드래그: 다중 노드 선택
  • F: 선택 노드 화면 중앙 정렬

마무리 — 핵심 한 줄

ComfyUI의 매력은 "내가 100% 제어한다"는 자유도예요. Midjourney가 잘 만들어진 자동차라면, ComfyUI는 부품부터 직접 조립하는 키트예요. 처음엔 답답하지만 한 번 익히면 다른 도구로 돌아가기 어려워요. 30분의 설치 시간이 평생의 이미지 생성 자유를 가져다줍니다.

❓ 자주 묻는 질문 (FAQ)

ComfyUI는 무료인가요?

네, 완전 무료 오픈소스예요. GitHub에서 다운로드해서 본인 PC에 설치해서 사용해요.

어떤 그래픽카드가 필요한가요?

NVIDIA RTX 3060(8GB) 이상 권장해요. RTX 5060 Ti 8GB에서 SDXL 모델이 1장당 5초 정도 걸려요.

노트북에서도 돌아가나요?

VRAM 6GB 이상 그래픽카드 탑재 노트북이면 가능해요. 다만 발열 관리가 중요해요.

AUTOMATIC1111과 차이는 뭔가요?

ComfyUI는 노드 기반이라 워크플로우를 시각적으로 설계해요. A1111은 탭 기반이라 초보가 쓰기 쉽지만 자유도가 낮아요.

설치 후 모델은 어디서 받나요?

Hugging Face와 Civitai에서 SDXL, Flux, SD 1.5 모델을 무료로 받을 수 있어요. 라이선스만 확인하세요.

한글 메뉴는 지원하나요?

기본은 영어지만 ComfyUI-Manager 확장으로 한글화 가능해요. 메뉴는 영어에 익숙해지면 더 빨라요.

📚 함께 읽으면 좋은 글 (Related Posts)

AI 사용법 가이드 더 보기 →