티스토리 뷰
우리가 작업하는 다양한 소스코드는 때로는 서로 다른 버전의 cuda 를 사용하기도 합니다. 그리고 물리적으로 한 대의 머신을 공유해서 사용한다고 했을 때 여러 버전의 cuda 를 이용하는 것은 매우 당연한 일이겠습니다. 이번 글에서는 어떻게 그것이 가능한지에 대한 이야기를 짧게 공유합니다.
1. cuda 설치 ( https://developer.nvidia.com/cuda-downloads )
링크에 접속해서 cuda 를 다운로드 받습니다. OS 부터 하나씩 선택해나가면 최종적으로 아래와 같은 화면을 볼 수 있습ㄴ다. 이 글이 작성된 시점 기준으로는 cuda 10.1 이 최신버전이라 위에 링크에 접속하면 다음 버전으로 가이드가 됩니다.
다운로드 받은 cuda 는 위에 설명에 있는 것처럼 터미널에서 실행해주면 되겠습니다.
sudo sh cuda_10.1.105_418.39_linux.run
몇 가지 질문이 이어지는데 대부분 default 를 선택해도 좋습니다. 단, /usr/local/cuda 로 symbolic link 를 만들겠냐는 질문에는 신중할 필요가 있습니다. 메인으로 쓸 쿠다를 제외하면 굳이 심볼릭 링크를 생성 할 필요가 없기 때문입니다. 말하자면 여러 버전은 다음과 같은 경로에 설치됩니다.
/usr/local/cuda-10.0
/usr/loca/cuda-9.0
/usr/loca/cuda-x.0
2. cuDNN library 설치
다음 링크의 중간부분을 참고해서 cuDNN 을 설치하도록 합니다. 중간에 LD_LIBRARIY_PATH 까지 잘 잡아주도록 합시다.
https://jybaek.tistory.com/778
3 export CUDA_HOME
필요하다면 cuda 를 사용할 때 환경에 따라 CUDA_HOME 환경변수의 경로를 다르게 잡아줘야 합니다. 예를들면 다음과 같습니다.
export CUDA_HOME="/usr/local/cuda"
Now enjoy multi cuda. :-)
'개발 > 기계학습' 카테고리의 다른 글
ImportError: numpy.core.xxx failed to import (2) | 2019.04.19 |
---|---|
Usage TPU in Google Colaboratory (1) | 2019.04.03 |
ImportError: libcudnn.so.7: cannot open shared object file: No such file or directory (2) | 2019.03.11 |
[Kaldi] voxforge online demo (9) | 2019.03.05 |
[Kaldi] Run sample script on Mac (41) | 2019.01.25 |
- Total
- Today
- Yesterday