본문 바로가기

AI Insights & Innovations

최신 인공지능 기술과 트렌드를 탐색하는 전문 블로그

카테고리 없음

Ollama 와 Open WebUI를 활용한 로컬 PC 설치 및 사용 매뉴얼

by dma-ai 2025. 3. 6.
728x90

Ollama 및 Open WebUI를 활용한 로컬 PC 설치 및 사용 매뉴얼

이 가이드는 Ollama와 Open WebUI를 로컬 PC에 설치하고 사용하는 방법을 단계별로 안내합니다.

목차

  1. 준비 사항
  2. Ollama 설치하기
  3. Open WebUI 설치하기
  4. Open WebUI 설정 및 Ollama 연결
  5. 모델 다운로드 및 사용하기
  6. 고급 설정 및 기능 활용
  7. 문제 해결

1. 준비 사항

  • 최소 시스템 요구사항:
    • CPU: 최신 멀티코어 프로세서 (Intel/AMD)
    • RAM: 최소 8GB (16GB 이상 권장)
    • 저장공간: 최소 10GB의 여유 공간 (모델 크기에 따라 더 필요할 수 있음)
    • OS: Windows 10/11, macOS 10.15+, Linux (Ubuntu 20.04+ 권장)
    • GPU: NVIDIA GPU (CUDA 지원) 또는 Apple Silicon (M1/M2/M3) 권장 (선택 사항)

2. Ollama 설치하기

Windows

  1. Ollama 공식 웹사이트에서 Windows 설치 파일 다운로드
  2. 다운로드한 설치 파일(.exe)을 실행
  3. 화면의 지시에 따라 설치 완료
  4. 설치가 완료되면 시스템 트레이에 Ollama 아이콘이 표시됨

macOS

  1. Ollama 공식 웹사이트에서 macOS 설치 파일 다운로드
  2. 다운로드한 .dmg 파일 실행
  3. Ollama 앱을 Applications 폴더로 드래그하여 설치
  4. Applications 폴더에서 Ollama 앱 실행
  5. 메뉴 바에 Ollama 아이콘이 표시됨

Linux (Ubuntu)

# 설치 스크립트 실행
curl -fsSL https://ollama.ai/install.sh | sh

# Ollama 서비스 시작
ollama serve

3. Open WebUI 설치하기

Docker를 이용한 설치 (모든 OS)

  1. Docker Desktop 설치 (아직 설치하지 않은 경우)
  2. 터미널 또는 명령 프롬프트를 열고 다음 명령 실행:
docker pull ghcr.io/open-webui/open-webui:latest
docker run -d --name open-webui -p 3000:8080 -v open-webui:/app/backend/data --restart always ghcr.io/open-webui/open-webui:latest

직접 설치 (고급 사용자)

사전 요구사항 설치

  1. Node.js (18+)
  2. Python (3.10+)
  3. Git

설치 과정

# 저장소 클론
git clone https://github.com/open-webui/open-webui.git
cd open-webui

# 백엔드 설치
cd backend
pip install -r requirements.txt

# 프론트엔드 설치
cd ../frontend
npm install

4. Open WebUI 설정 및 Ollama 연결

  1. 웹 브라우저를 열고 http://localhost:3000 접속 (Docker 설치 시)
    • 직접 설치한 경우 백엔드와 프론트엔드를 각각 실행해야 함
  2. 초기 설정 화면에서:
    • 사용자 계정 생성 (이메일, 비밀번호 설정)
    • Ollama 연결 설정:
      • Ollama 호스트 URL: http://localhost:11434 (기본값)
      • API 키: (비워두면 됨, Ollama는 기본적으로 API 키를 요구하지 않음)
  3. "연결 테스트" 버튼을 클릭하여 Ollama 연결 확인
  4. 설정 저장

5. 모델 다운로드 및 사용하기

모델 다운로드

  1. Open WebUI 대시보드에서 "모델" 탭 클릭
  2. "모델 추가" 버튼 클릭
  3. 다음 중 원하는 모델 선택:
    • Llama2
    • Mistral
    • Gemma
    • CodeLlama
    • Phi-2
    • 기타 제공되는 모델
  4. "다운로드" 버튼 클릭하여 선택한 모델 다운로드 시작
    • 모델 크기에 따라 다운로드 시간이 다름 (1GB~10GB 범위)

모델 사용하기

  1. Open WebUI 대시보드에서 "채팅" 탭 클릭
  2. 새 채팅 시작 ("+" 버튼 클릭)
  3. 우측 상단에서 사용할 모델 선택
  4. 프롬프트 입력란에 질문이나 명령 입력
  5. 전송 버튼 클릭하여 AI와 대화 시작

6. 고급 설정 및 기능 활용

모델 파라미터 설정

  1. 채팅 화면 우측 상단의 설정 아이콘 클릭
  2. 다음 파라미터 조정 가능:
    • Temperature: 응답의 무작위성 조절 (낮을수록 일관된 응답)
    • Top P: 토큰 샘플링 확률 조절
    • Max Tokens: 최대 출력 토큰 수
    • Context Window: 컨텍스트 창 크기
    • System Prompt: 모델의 기본 동작 지정

채팅 기록 관리

  1. 좌측 사이드바에서 이전 채팅 목록 확인
  2. 채팅 이름 변경, 삭제, 내보내기 등 관리 가능
  3. 채팅 폴더 생성하여 대화 정리 가능

추가 기능

  • 파일 업로드: 일부 모델은 이미지 파일 분석 지원
  • 코드 실행: 코드 블록 자동 인식 및 구문 강조 표시
  • API 사용: API 키를 생성하여 외부 애플리케이션에서 Open WebUI 활용 가능
  • 다중 사용자: 여러 계정 생성하여 팀원들과 공유 가능

7. 문제 해결

일반적인 문제

  1. Ollama에 연결할 수 없음
    • Ollama가 실행 중인지 확인 (ollama serve 명령 실행)
    • 방화벽 설정 확인
    • Ollama 호스트 URL이 올바른지 확인
  2. 모델 다운로드 실패
    • 디스크 공간 확인
    • 인터넷 연결 확인
    • 터미널에서 직접 ollama pull 모델명 명령 시도
  3. 모델 로딩 오류
    • RAM 사용량 확인 (메모리 부족 가능성)
    • GPU 드라이버 업데이트 확인 (NVIDIA 사용자)
    • Ollama 재시작 시도
  4. 응답 생성이 너무 느림
    • 더 작은 모델 선택 (예: llama2:7b 대신 llama2:7b-chat-q4_0)
    • 하드웨어 가속 확인 (CUDA, ROCm, Metal)
    • 다른 애플리케이션 종료하여 리소스 확보

로그 확인

  • Ollama 로그:
    • Windows: %USERPROFILE%\.ollama\logs
    • macOS/Linux: ~/.ollama/logs
  • Open WebUI 로그 (Docker 사용 시):
  • docker logs open-webui

이 매뉴얼이 Ollama와 Open WebUI를 로컬 PC에서 설치하고 사용하는 데 도움이 되길 바랍니다. 더 자세한 정보는 Ollama 공식 문서Open WebUI 공식 문서를 참조하세요.

728x90