데이터 레시피 파일 설정¶
Driverless AI를 사용하면 Driverless AI 애플리케이션 내에서 데이터 레시피 파일 데이터 소스를 탐색할 수 있습니다. 해당 섹션에서는 로컬 데이터 레시피 파일과 함께 작동하도록 Driverless AI를 구성하는 것에 관한 지침이 제공됩니다. 활성화 시(기본값), Driverless AI에 추가된 데이터 세트를 수정할 수 있습니다(자세한 내용은 사용자 정의 데이터 레시피로 수정 를 참조하십시오).
Notes:
이 커넥터는 기본적으로 활성화되어 있습니다. 이러한 절차는 이 커넥터가 이전에 비활성화된 상태에서 재활성화하려는 경우에 제공됩니다.
Docker 설치 버전에 따라, Driverless AI Docker 이미지를 시작할 때는
docker run --runtime=nvidia
(Docker 19.03 이후) 또는nvidia-docker
(Docker 19.03 이전) 명령을 사용하십시오. 사용 중인 Docker 버전을 확인하려면docker version
을 사용하십시오.
데이터 레시피 파일 활성화¶
이 예제에서는 데이터 레시피 파일 데이터 커넥터를 활성화합니다.
nvidia-docker run \
--shm-size=256m \
--add-host name.node:172.16.2.186 \
-e DRIVERLESS_AI_ENABLED_FILE_SYSTEMS="file,upload,recipe_file" \
-p 12345:12345 \
--init -it --rm \
-v /tmp/dtmp/:/tmp \
-v /tmp/dlog/:/log \
-v /tmp/dlicense/:/license \
-v /tmp/ddata/:/data \
-u $(id -u):$(id -g) \
h2oai/dai-centos7-x86_64:1.10.1-cuda11.2.2.xx
본 예제에서는 config.toml 파일에서 업로드 데이터 레시피 커넥터를 활성화한 후, Docker에서 Driverless AI를 시작할 때 해당 파일을 지정하는 방법에 관해 설명합니다. Recipe_file
은 기본적으로 config.toml 파일에서 활성화되어 있습니다.
Driverless AI config.toml file 파일을 구성하십시오. 다음 구성 옵션을 설정하십시오.
enabled_file_systems = "file, upload, recipe_file"
config.toml 파일을 Docker 컨테이너에 마운트하십시오.
nvidia-docker run \ --pid=host \ --init \ --rm \ --shm-size=256m \ --add-host name.node:172.16.2.186 \ -e DRIVERLESS_AI_CONFIG_FILE=/path/in/docker/config.toml \ -p 12345:12345 \ -v /local/path/to/config.toml:/path/in/docker/config.toml \ -v /etc/passwd:/etc/passwd:ro \ -v /etc/group:/etc/group:ro \ -v /tmp/dtmp/:/tmp \ -v /tmp/dlog/:/log \ -v /tmp/dlicense/:/license \ -v /tmp/ddata/:/data \ -u $(id -u):$(id -g) \ h2oai/dai-centos7-x86_64:1.10.1-cuda11.2.2.xx
이 예제에서는 업로드 데이터 레시피 커넥터를 사용합니다. Recipe_file
은 기본적으로 활성화되어 있습니다.
Driverless AI config.toml 파일을 내보내거나 ~/.bashrc에 추가합니다. 아래 예를 참조하십시오.
# DEB and RPM export DRIVERLESS_AI_CONFIG_FILE="/etc/dai/config.toml" # TAR SH export DRIVERLESS_AI_CONFIG_FILE="/path/to/your/unpacked/dai/directory/config.toml"
config.toml 파일에서 아래 구성 옵션을 지정하십시오.
# File System Support # upload : standard upload feature # file : local file system/server file system # hdfs : Hadoop file system, remember to configure the HDFS config folder path and keytab below # dtap : Blue Data Tap file system, remember to configure the DTap section below # s3 : Amazon S3, optionally configure secret and access key below # gcs : Google Cloud Storage, remember to configure gcs_path_to_service_account_json below # gbq : Google Big Query, remember to configure gcs_path_to_service_account_json below # minio : Minio Cloud Storage, remember to configure secret and access key below # snow : Snowflake Data Warehouse, remember to configure Snowflake credentials below (account name, username, password) # kdb : KDB+ Time Series Database, remember to configure KDB credentials below (hostname and port, optionally: username, password, classpath, and jvm_args) # azrbs : Azure Blob Storage, remember to configure Azure credentials below (account name, account key) # jdbc: JDBC Connector, remember to configure JDBC below. (jdbc_app_configs) # hive: Hive Connector, remember to configure Hive below. (hive_app_configs) # recipe_url: load custom recipe from URL # recipe_file: load custom recipe from local file system enabled_file_systems = "file, recipe_file"
완료되면 변경 사항을 저장하고 Driverless AI를 중지/재시작하십시오.