RoBoLoG

[한줄 코딩] Cuda 사용 가능한지 확인하는 방법 (Tensorflow, Pytorch) 본문

Study/Artificial Intelligence

[한줄 코딩] Cuda 사용 가능한지 확인하는 방법 (Tensorflow, Pytorch)

SKJun 2024. 5. 14. 18:58

[한줄 코딩] Cuda 사용 가능한지 확인하는 방법 (Tensorflow, Pytorch)


 

GPU 사용 가능 여부 확인하기: TensorFlow와 PyTorch

딥러닝 작업을 수행할 때 GPU를 활용하면 속도를 크게 향상시킬 수 있습니다. 하지만, 현재 시스템에서 GPU가 사용 가능한지 확인하는 것이 중요합니다. 이를 위해 TensorFlow와 PyTorch를 사용하여 간단하게 GPU 사용 가능 여부를 확인하는 방법을 소개합니다.

 

Why? 터미널 창에서 쉽게 GPU 사용 가능 여부 확인

딥러닝 작업을 위해 많은 사용자들이 터미널에서 작업을 진행합니다. 따라서, 터미널 창에서 간단한 명령어를 통해 GPU가 사용 가능한지 확인할 수 있다면 매우 편리합니다. 이를 통해 모델 학습 전 GPU가 제대로 인식되고 있는지 빠르게 확인할 수 있습니다.

 

TensorFlow에서 GPU 사용 가능 여부 확인

TensorFlow는 tf.config.list_physical_devices 함수를 제공하여 현재 시스템에서 사용 가능한 GPU 장치를 확인할 수 있습니다. 다음 한 줄의 코드로 GPU 사용 가능 여부를 확인할 수 있습니다:

 

import tensorflow as tf; print("GPU is", "available" if tf.config.list_physical_devices('GPU') else "not available")

 

 

이 코드는 TensorFlow를 import한 후, tf.config.list_physical_devices('GPU')를 호출하여 사용 가능한 GPU 장치 목록을 가져옵니다. 만약 GPU가 하나라도 사용 가능하면 "available"을, 그렇지 않으면 "not available"을 출력합니다.

 

PyTorch에서 GPU 사용 가능 여부 확인

PyTorch는 torch.cuda.is_available 함수를 제공하여 현재 시스템에서 CUDA를 사용할 수 있는지 확인할 수 있습니다. 다음 한 줄의 코드로 GPU 사용 가능 여부를 확인할 수 있습니다:

 

import torch; print("GPU is", "available" if torch.cuda.is_available() else "not available")
 

 

이 코드는 PyTorch를 import한 후, torch.cuda.is_available()를 호출하여 CUDA 사용 가능 여부를 확인합니다. CUDA가 사용 가능하면 "available"을, 그렇지 않으면 "not available"을 출력합니다.

 

결론

터미널 창에서 간단한 명령어로 GPU 사용 가능 여부를 확인하는 것은 매우 유용합니다. TensorFlow와 PyTorch를 사용하여 각각 한 줄의 코드로 이를 확인할 수 있습니다. 딥러닝 모델을 학습하기 전에 이 코드를 실행하여 GPU가 제대로 인식되고 있는지 확인해 보세요.

 

위에서 소개한 코드를 통해 딥러닝 작업을 위한 환경을 빠르게 점검하고, GPU를 활용한 효율적인 모델 학습을 진행할 수 있을 것입니다.

728x90
반응형