Ubuntu 18.04에서 PyTorch를 통해 RTX 2080 Ti를 활용하려 한다.
순서는 다음과 같다.
- Nvidia 그래픽 드라이버 설치
- CUDA 설치
- cuDNN 설치
- PyTorch 설치
1. Nvidia 드라이버 설치
CUDA 릴리즈 노트를 확인하고 최신 버전 직전의 버전(CUDA 11.6 & driver-510)을 설치했다.

$ sudo apt-get install nvidia-driver-510 $ sudo apt-get install dkms nvidia-modprobe
설치가 끝나면 재부팅하자.
nvidia-smi로 설치가 잘 됐는지 확인할 수 있다.
$ nvidia-smi +-----------------------------------------------------------------------------+ | NVIDIA-SMI 510.85.02 Driver Version: 510.85.02 CUDA Version: 11.6 | |-------------------------------+----------------------+----------------------+ | GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. | | | | MIG M. | |===============================+======================+======================| | 0 NVIDIA GeForce ... Off | 00000000:09:00.0 Off | N/A | | 36% 53C P0 58W / 250W | 0MiB / 11264MiB | 0% Default | | | | N/A | +-------------------------------+----------------------+----------------------+ +-----------------------------------------------------------------------------+ | Processes: | | GPU GI CI PID Type Process name GPU Memory | | ID ID Usage | |=============================================================================| | No running processes found | +-----------------------------------------------------------------------------+
2. CUDA 11.6 설치
최신 버전 직전의 버전인 CUDA 11.6.2를 내려받는다. [Nvidia]
필자는 Ubuntu 18.04에서 run 파일을 받아 진행하였다.
홈페이지에서 내려받는 방법에 따라 설치 방법을 안내한다.

다음은 로컬에서 run 파일을 통해 설치하는 방법이다.
로컬에서 설치하다보니 파일 다운로드만해도 시간이 꽤 걸린다. (약 15분)
$ wget https://developer.download.nvidia.com/compute/cuda/11.6.2/local_installers/cuda_11.6.2_510.47.03_linux.run $ sudo sh cuda_11.6.2_510.47.03_linux.run --toolkit --silent --override
–toolkit 옵션을 통해 CUDA 툴킷만을 설치한다.
3. cuDNN 설치
cuDNN은 DNN 연산을 위한 GPU 가속 라이브러리이다.
CUDA 버전에 맞는 cuDNN을 내려받자. [Nvidia]
필자는 CUDA 11.x에 맞는 최신 버전의 직전 버전을 내려받았다. (v8.4.0)

다운로드하려면 로그인이 필요하기 때문에 wget으로 내려받기에는 껄끄럽다.
윈도우에서 받아 서버에 넣어주거나 쿨하게 wget에 계정정보를 넣어 내려받자.
필자는 samba로 연결이 되어있기 때문에 윈도우로 받아 파일을 넣어주었다.
이후 아래처럼 패키지를 실행해주면 libcudnn이 설치된다.
CUDA 버전과 cuDNN 버전을 잘 맞추어 설치해주자. [guide]
libcudnn8-sample를 설치하면 샘플코드와 라이브러리 문서가 설치된다.
$ sudo dpkg -i cudnn-local-repo-ubuntu1804-8.4.0.27_1.0-1_amd64.deb $ sudo apt-get install libcudnn8=8.4.0.27-1+cuda11.6 $ sudo apt-get install libcudnn8-samples=8.4.0.27-1+cuda11.6
4. PyTorch 설치
거창하게 챕터를 따로 떼놨지만 사실 별거 없다.
Anaconda로 설치해주기만 하면 된다.
쓸만한 유틸리티를 함께 설치해주자.
CUDA 버전에 유의하자.
$ conda install pytorch torchvision -c pytorch $ conda install -c nvidia/label/cuda-11.6.2 cuda-toolkit
최종 확인
만약 설치가 잘 됐다면 파이썬에서 다음과 같은 결과를 확인할 수 있을 것이다.
>>> import torch >>> torch.cuda.current_device() 0 >>> torch.cuda.device(0) <torch.cuda.device object at 0x7f1fb4b04890> >>> torch.cuda.device_count() 1 >>> torch.cuda.get_device_name(0) 'GeForce RTX 2080 Ti' >>> torch.cuda.is_available() True