HARDWARE/AMD

Windows 11에서 AMD Ryzen AI Max+ Pro 395와 최신 HIP SDK로 Ollama 설치 방법

dma-ai 2025. 6. 11. 20:45
728x90

Windows 11에서 AMD Ryzen AI Max+ Pro 395와 최신 HIP SDK로 Ollama 설치 방법

AMD Ryzen AI Max+ Pro 395는 RDNA3.5(gfx1151) 아키텍처 기반으로, 최신 HIP SDK(ROCm)와 공식적으로 호환됩니다148. Ollama도 Windows에서 AMD GPU 가속을 지원하므로, 아래 단계에 따라 설치할 수 있습니다.


1. AMD 드라이버 및 HIP SDK 설치

  • AMD 공식 드라이버 페이지에서 Windows 11용 최신 드라이버를 다운로드 후 설치합니다5.
  • AMD ROCm HIP SDK 다운로드 페이지에서 최신 HIP SDK(예: 6.2.x)를 다운로드하여 설치합니다. 설치 시 모든 기본 옵션을 선택하면 됩니다8.
  • 설치 중에는 관리자 권한이 필요하며, 설치가 완료되면 시스템을 재부팅하세요8.

2. Ollama for Windows 설치


3. ROCm 라이브러리 교체(필요 시)

  • Ollama가 GPU를 제대로 인식하지 못하거나 성능이 낮을 경우, GPU 아키텍처(gfx1151)에 맞는 ROCm 라이브러리(특히 rocblas.dll 및 rocblas/library 폴더)를 별도로 다운로드하여 Ollama 설치 폴더에 덮어씁니다469.
    • 보통 경로는입니다.
    •  
      text
      C:\Users\사용자명\AppData\Local\Programs\Ollama\lib\ollama\rocm
  • 최신 ROCmLibs는 GitHub 릴리즈나 관련 ROCmLibs 저장소에서 다운로드할 수 있습니다649.

4. Ollama 실행 및 테스트

  • PowerShell 또는 CMD에서 아래 명령어로 Ollama를 실행합니다.또는
    • 정상적으로 실행되면 GPU가 활용되어 LLM 모델이 동작하는 것을 확인할 수 있습니다37.
  •  
    text
    ollama run llama3.2
  •  
    text
    ollama run llama3
  • Ollama가 잘 실행되지 않거나 GPU를 인식하지 못하면, ROCm/HIP SDK 및 라이브러리 교체 단계를 다시 확인하세요6.

5. 참고 및 추가 팁

  • Ollama는 설치 후 항상 최신 모델을 다운로드할 수 있으며, 모델 저장 위치는 환경 변수(OLLAMA_MODELS)로 변경 가능합니다3.
  • Ollama for AMD 프로젝트는 지속적으로 업데이트되므로, 최신 릴리즈와 문서를 참고하세요64.
  • Ryzen AI NPU(Neural Processing Unit) 기능을 활용하려면 별도의 Ryzen AI Software 설치가 필요할 수 있으나, Ollama는 주로 GPU 가속을 사용합니다10.

요약 설치 순서

  1. AMD 공식 드라이버 설치5.
  2. 최신 HIP SDK(ROCm) 설치8.
  3. Ollama for Windows 설치36.
  4. 필요 시 ROCm 라이브러리(gfx1151) 덮어쓰기469.
  5. ollama run llama3로 정상 동작 확인73.

추가 정보

  • Ollama 및 ROCm은 Windows 11 22H2 이상, 최신 드라이버 환경에서 가장 안정적으로 동작합니다138.
  • Ollama 공식 문서와 ollama-for-amd 위키에서 GPU별 상세 설정법을 확인할 수 있습니다4.

이 과정을 따르면 Windows 11에서 AMD Ryzen AI Max+ Pro 395와 최신 HIP SDK를 활용해 Ollama를 GPU 가속으로 실행할 수 있습니다. 추가적인 AI 도구 및 모델 관리에 관한 한글 가이드가 필요하면 언제든 문의하세요1920.

  1. https://rocm.docs.amd.com/projects/install-on-windows/en/latest/reference/system-requirements.html
  2. https://www.reddit.com/r/ollama/comments/1cf5tq1/ollama_windows_10_rx6600xt_zluda/
  3. https://github.com/likelovewant/ollama-for-amd/blob/main/docs/windows.md
  4. https://github.com/likelovewant/ollama-for-amd/wiki
  5. https://www.amd.com/en/support/downloads/drivers.html/processors/ryzen/ryzen-ai-max-series/amd-ryzen-ai-max-plus-395.html
  6. https://github.com/likelovewant/ollama-for-amd/releases
  7. https://www.amd.com/en/developer/resources/technical-articles/running-llms-locally-on-amd-gpus-with-ollama.html
  8. https://rocm.docs.amd.com/projects/install-on-windows/en/latest/
  9. https://muso.sk/run-local-copilot-killer-on-older-amd-gpus-with-rocm
  10. https://ryzenai.docs.amd.com/en/latest/inst.html
  11. https://www.reddit.com/r/LocalLLM/comments/1k3hlw3/testing_the_ryzen_m_max_395/
  12. https://gpuopen.com/learn/accelerating_generative_ai_on_amd_radeon_gpus/
  13. https://www.gmktec.com/products/amd-ryzen%E2%84%A2-ai-max-395-evo-x2-ai-mini-pc
  14. https://github.com/ollama/ollama/issues/3781
  15. https://lilys.ai/notes/862663
  16. https://blog.syddel.uk/?p=625
  17. https://www.amd.com/ko/blogs/2025/ai-pcs-with-ryzen-ai-300-series-and-windows-ml.html
  18. https://www.youtube.com/watch?v=211ygEwb9eI
  19. programming.ai_development
  20. programming.ai_tools
728x90