HARDWARE/AMD
Windows 11에서 AMD Ryzen AI Max+ Pro 395와 최신 HIP SDK로 Ollama 설치 방법
dma-ai
2025. 6. 11. 20:45
728x90
Windows 11에서 AMD Ryzen AI Max+ Pro 395와 최신 HIP SDK로 Ollama 설치 방법
AMD Ryzen AI Max+ Pro 395는 RDNA3.5(gfx1151) 아키텍처 기반으로, 최신 HIP SDK(ROCm)와 공식적으로 호환됩니다148. Ollama도 Windows에서 AMD GPU 가속을 지원하므로, 아래 단계에 따라 설치할 수 있습니다.
1. AMD 드라이버 및 HIP SDK 설치
- AMD 공식 드라이버 페이지에서 Windows 11용 최신 드라이버를 다운로드 후 설치합니다5.
- AMD ROCm HIP SDK 다운로드 페이지에서 최신 HIP SDK(예: 6.2.x)를 다운로드하여 설치합니다. 설치 시 모든 기본 옵션을 선택하면 됩니다8.
- 설치 중에는 관리자 권한이 필요하며, 설치가 완료되면 시스템을 재부팅하세요8.
2. Ollama for Windows 설치
- Ollama 공식 다운로드 페이지 또는 ollama-for-amd GitHub 릴리즈에서 Windows용 Ollama 설치 파일(OllamaSetup.exe)을 다운로드하여 실행합니다367.
- 설치는 기본적으로 사용자 홈 디렉터리에 진행되며, 별도의 관리자 권한이 필요하지 않습니다3.
3. ROCm 라이브러리 교체(필요 시)
- Ollama가 GPU를 제대로 인식하지 못하거나 성능이 낮을 경우, GPU 아키텍처(gfx1151)에 맞는 ROCm 라이브러리(특히 rocblas.dll 및 rocblas/library 폴더)를 별도로 다운로드하여 Ollama 설치 폴더에 덮어씁니다469.
- 보통 경로는입니다.
-
textC:\Users\사용자명\AppData\Local\Programs\Ollama\lib\ollama\rocm
- 최신 ROCmLibs는 GitHub 릴리즈나 관련 ROCmLibs 저장소에서 다운로드할 수 있습니다649.
4. Ollama 실행 및 테스트
- PowerShell 또는 CMD에서 아래 명령어로 Ollama를 실행합니다.또는
-
textollama run llama3.2
-
textollama run llama3
- Ollama가 잘 실행되지 않거나 GPU를 인식하지 못하면, ROCm/HIP SDK 및 라이브러리 교체 단계를 다시 확인하세요6.
5. 참고 및 추가 팁
- Ollama는 설치 후 항상 최신 모델을 다운로드할 수 있으며, 모델 저장 위치는 환경 변수(OLLAMA_MODELS)로 변경 가능합니다3.
- Ollama for AMD 프로젝트는 지속적으로 업데이트되므로, 최신 릴리즈와 문서를 참고하세요64.
- Ryzen AI NPU(Neural Processing Unit) 기능을 활용하려면 별도의 Ryzen AI Software 설치가 필요할 수 있으나, Ollama는 주로 GPU 가속을 사용합니다10.
요약 설치 순서
- AMD 공식 드라이버 설치5.
- 최신 HIP SDK(ROCm) 설치8.
- Ollama for Windows 설치36.
- 필요 시 ROCm 라이브러리(gfx1151) 덮어쓰기469.
- ollama run llama3로 정상 동작 확인73.
추가 정보
- Ollama 및 ROCm은 Windows 11 22H2 이상, 최신 드라이버 환경에서 가장 안정적으로 동작합니다138.
- Ollama 공식 문서와 ollama-for-amd 위키에서 GPU별 상세 설정법을 확인할 수 있습니다4.
이 과정을 따르면 Windows 11에서 AMD Ryzen AI Max+ Pro 395와 최신 HIP SDK를 활용해 Ollama를 GPU 가속으로 실행할 수 있습니다. 추가적인 AI 도구 및 모델 관리에 관한 한글 가이드가 필요하면 언제든 문의하세요1920.
- https://rocm.docs.amd.com/projects/install-on-windows/en/latest/reference/system-requirements.html
- https://www.reddit.com/r/ollama/comments/1cf5tq1/ollama_windows_10_rx6600xt_zluda/
- https://github.com/likelovewant/ollama-for-amd/blob/main/docs/windows.md
- https://github.com/likelovewant/ollama-for-amd/wiki
- https://www.amd.com/en/support/downloads/drivers.html/processors/ryzen/ryzen-ai-max-series/amd-ryzen-ai-max-plus-395.html
- https://github.com/likelovewant/ollama-for-amd/releases
- https://www.amd.com/en/developer/resources/technical-articles/running-llms-locally-on-amd-gpus-with-ollama.html
- https://rocm.docs.amd.com/projects/install-on-windows/en/latest/
- https://muso.sk/run-local-copilot-killer-on-older-amd-gpus-with-rocm
- https://ryzenai.docs.amd.com/en/latest/inst.html
- https://www.reddit.com/r/LocalLLM/comments/1k3hlw3/testing_the_ryzen_m_max_395/
- https://gpuopen.com/learn/accelerating_generative_ai_on_amd_radeon_gpus/
- https://www.gmktec.com/products/amd-ryzen%E2%84%A2-ai-max-395-evo-x2-ai-mini-pc
- https://github.com/ollama/ollama/issues/3781
- https://lilys.ai/notes/862663
- https://blog.syddel.uk/?p=625
- https://www.amd.com/ko/blogs/2025/ai-pcs-with-ryzen-ai-300-series-and-windows-ml.html
- https://www.youtube.com/watch?v=211ygEwb9eI
- programming.ai_development
- programming.ai_tools
728x90