Driverless AI에서의 GPU¶
Driverless AI는 CPU가 설치된 컴퓨터 또는 CPU와 GPU가 동시에 설치된 컴퓨터에서 실행할 수 있습니다. 최고의 (그리고 설계 의도에 따른) 작업 환경을 위해 GPU 및 CUDA를 지원하는 최신 데이터 센터 하드웨어에 Driverless AI를 설치하십시오. 변수 가공 및 모델 구축은 각각 CPU와 GPU에서 수행됩니다. 이러한 이유로 Driverless AI는 충분한 시스템 메모리를 가진 멀티 코어 CPU 및 충분한 RAM을 가진 GPU를 활용합니다. 최고의 결과를 얻기 위해 Pascal 또는 Volta 아키텍처를 사용하는 GPU를 권장합니다. Ampere 기반 NVIDIA GPU는 x86 시스템에서도 지원됩니다(NVIDIA CUDA 드라이버 11.2 이상 필요).
Driverless AI는 NVIDIA CUDA 11.2.2 및 cuDNN과 함께 제공됩니다.
Driverless AI의 Image 및 NLP 사용 사례는 GPU 사용에서 상당한 이점을 얻습니다.
모델 구축 알고리즘, 즉 XGBoost (GBM/DART/RF/GLM), LightGBM (GBM/DART/RF), PyTorch (BERT 모델) 및 TensorFlow (CNN/BiGRU/ImageNet) 모델은 GPU를 사용합니다. GPU의 모델 채점은 실험의 num_gpus_for_prediction 시스템 상세 설정을 통해 예측/채점을 위해 0이 아닌 GPU를 선택하여 활성화할 수 있습니다. GPU에 대한 Shapley 계산 기능은 곧 제공될 예정입니다. 일부 사용 사례에서는 GPU에서 모델을 생산하기 위한 MOJO 채점을 활성화할 수 있습니다. config.toml 에서 tensorflow_nlp_have_gpus_in_production
을 참조하십시오. Driverless AI Tensorflow, BERT 및 이미지 모델은 생산을 위한 C++ MOJO 채점을 지원합니다.
ClusterDist cuML 트랜스포머, TruncSVDNum cuML 트랜스포머, DBSCAN cuML 트랜스포머와 같은 Feature engineering 트랜스포머는 GPU에서 실행됩니다.
Driverless AI Dask multinode 설정을 사용하면 광범위한 model hyperparamenter search 에서 GPU를 사용할 수 있습니다.
관련 정보는 다음을 참조하십시오.
Driverless AI & NVIDIA cuDNN
Driverless AI & NVIDIA RAPIDS
NVIDIA RAPIDS는 GPU 가속 PyData API를 제공합니다. Driverless AI는 변수 가공을 위한 RAPIDS cuML (scikit-learn) transformers 즉 ClusterDist cuML 트랜스포머, TruncSVDNum cuML 트랜스포머, DBSCAN cuML 트랜스포머 및 GPU에서 머신 러닝 모델을 구축하기 위한 RAPIDS cuDF 확장을 XGBoost GBM / DART 로 통합합니다.
Driverless AI & Dask + RAPIDS
DASK 는 핵심 병렬 처리 및 일부 인기 있는 Python 라이브러리의 배포를 가능하게 하는 Python 라이브러리입니다. DASK를 RAPIDS와 결합하여 다중 노드 다중 GPU 프레임워크를 지원합니다. Driverless는 DASK multinode cluster 를 지원하고 모델링을 위한 Dask cuDF multiGPU XGBoost GBM / DART 를 지원하고 모델 매개변수 선택을 위한 Dask multinode / multiGPU hyperparameter search 를 지원합니다.
Driverless AI & OpenCL and CUDA LightGBM
X86 아키텍처에서 GPU에 대한 OpenCL algorithm implementation of LightGBM 은 모델 구축을 위한 Driverless AI에서 사용됩니다.
GPU는 실험에 따라 활성화/비활성화할 수 있습니다. 실험의 System expert settings 으로 GPU를 미세하게 제어할 수 있습니다. 다른 모든 GPU 관련 구성 설정은 config.toml 을 참조하십시오.