#ollama #rocm #amd #gpu #linux #ai #머신러닝 #설치매뉴얼 #llm #서비스설정1 ROCm이 설치된 Linux에서 Ollama 설치 및 AMD GPU 환경 설정 매뉴얼 ROCm이 설치된 Linux에서 Ollama 설치 및 AMD GPU 환경 설정 매뉴얼Ollama는 로컬 환경에서 다양한 LLM(대형 언어 모델)을 손쉽게 실행할 수 있게 해주는 도구입니다. 특히 AMD GPU와 ROCm 환경에서 Ollama를 활용하려면 몇 가지 중요한 설정이 필요합니다. 이 글에서는 ROCm이 설치된 Linux 환경에서 Ollama를 설치하고, AMD GPU를 인식하도록 환경 변수를 설정하는 방법을 단계별로 안내합니다.1. Ollama 설치Ollama를 설치하는 가장 간단한 방법은 공식 설치 스크립트를 사용하는 것입니다. bashcurl -fsSL https://ollama.com/install.sh | sh 또는 수동 설치를 원한다면 아래 명령을 사용하세요. bashsudo curl .. 2025. 7. 1. 이전 1 다음