[n8n] 로컬 PC에 설치해서 LLM까지 완전 무료! 셀프 호스팅 A-Z 가이드 |가나투데이
n8n 클라우드의 API 비용이 부담스럽다면? 내 컴퓨터에 도커로 설치하고 Ollama로 무료 LLM까지 연동하는 셀프 호스팅이 해결책입니다. 데이터 유출 걱정 없이 모든 커뮤니티 노드 활용 가능하며, 전기세 정도만 내면 무한 자동화 환경 구축 완료합니다.
셀프 호스팅의 장단점: 나에게 맞는가?
비용 0원, 데이터 100% 내 컴퓨터 저장, 모든 커뮤니티 노드 자유 활용이 최대 장점입니다. 반면 PC 항상 켜둬야 하고 외부 접근·OAuth 설정이 복잡하다는 단점 존재합니다. 테스트·학습용으로는 완벽하지만 24/7 운영 원한다면 별도 서버 추천합니다.
Step 1: Docker Desktop 설치 (5분)
- docker.com 가입 후 운영체제 맞는 Docker Desktop 다운로드
- 관리자 권한으로 설치 (WSL2 자동 활성화)
- Docker Desktop 실행 → Personal 선택 후 로그인
- Volumes 생성: 좌측 Volumes → Create → "n8n_data" 입력
Step 2: n8n 컨테이너 생성 (핵심 세팅)
- 좌측 Images → "n8n" 검색 →
n8nio/n8n최신 버전 Pull - Run 버튼 → 설정 입력:
Container Name: n8n
Port: 5678:5678
Volume: n8n_data → /home/node/.n8n★★★★ (데이터 영속화 필수) - 컨테이너 실행 → localhost:5678 접속
- 로컬 계정 생성 후 이메일로 무료 라이선스키 발급받아 활성화
Step 3: Ollama 설치 & LLM 모델 다운로드
- ollama.com 다운로드 후 설치
- Models 탭 → Llama3.2, Mistral 등 선택 → CMD 실행 후 복사 명령어 붙여넣기
ollama run llama3.2(설치 시간 10~30분 소요) - CMD에서
ollama list로 설치 확인
Step 4: n8n + Ollama 연동 (★★★★★ 핵심)
- n8n 워크플로우 생성 → On Chat Message → AI Agent 노드 추가
- Chat Model → Ollama 선택 → Create Credential
- Base URL:
localhost:11434→http://host.docker.internal:11434변경 ★★★★ - Model: llama3.2 선택 → 저장 → 테스트 채팅 실행
Docker 내부에서 호스트 Ollama 접근 시 host.docker.internal 필수! 이 한 줄로 대부분 연결 실패 해결합니다.
비교표: 클라우드 vs 로컬 셀프 호스팅
| 항목 | n8n 클라우드 + OpenAI | 로컬 n8n + Ollama |
|---|---|---|
| 비용 | 월 $20~ + API 토큰당 과금 | 전기세만 (0원) |
| 데이터 보안 | 클라우드 전송 (유출 위험) | 100% 로컬 (완전 안전) |
| 노드 제한 | 인증된 노드만 | 모든 커뮤니티 노드 OK |
| 속도 | 고속 서버 | PC 사양 따라 (GPU 권장) |
실전 활용: 블로그 자동화 예시
- RSS 뉴스 → Ollama 요약 → 이메일 발송
- 주식 데이터 → AI 분석 → 슬랙 알림
- 유튜브 댓글 → 자동 답변 생성
속도는 클라우드만큼 빠르지 않지만, 비용 0원 + 보안 완벽으로 개인 프로젝트·학습용 최적입니다. PC 사양 좋으면 준수한 성능 발휘합니다.
⚠️ 주의사항: Docker 컨테이너 재시작 시 --add-host=host.docker.internal:host-gateway 플래그 추가 권장합니다. 모델 업데이트는 ollama pull llama3.2 명령어입니다.
이 가이드로 n8n 셀프 호스팅 완성! 질문은 댓글로 👇 댓글 남기기
#가나 투데이 #ganatoday
그린아프로
댓글 없음:
댓글 쓰기