본문으로 건너뛰기
버전: docs v25.02

실험

Updated 2025.02.20

ML Pipeline을 구성하는 python 파일과, experimental_plan.yaml을 한번 더 점검하고 현재 경로에서 alo CLI 명령어를 실행하여 실험합니다.



AI Pipeline 실행하기

alo run 
alo run --mode train # train pipeline만 실행
alo run --mode inference # inference pipeline만 실행

alo run CLI 명령어가 실행되면, 현재 경로에 있는 파일 및 폴더를 기준으로 동작합니다. 이 과정에서 experimental_plan.yaml에 정의된 내용들을 바탕으로 library를 설치하고 pipleine을 실행시키고 dataset을 load하며 출력을 저장합니다. alo example CLI 명령어로 제공되는 titanic 예제의 경우, alo run 정상 동작 후 아래와 같은 folder 구조를 갖게 됩니다.

├── experimental_plan.yaml
├── inference_artifact # experimental_plan.yaml에 작성된 inference: 의 artifact_uri 경로입니다. inference pipeline의 정보가 저장됩니다.
│ ├── inference_artifacts.zip # output (result.csv) , log (pipeline.log, process.log), score (inference_summary.yaml)가 저장된 zip 파일입니다.
│ ├── pipeline.log # titanic.py의 실행 로그입니다.
│ └── process.log # alo 실행의 전반적인 log 입니다.
├── inference_dataset
│ └── inference_dataset.csv
├── setting
│ ├── infra_config.yaml
│ ├── sagemaker_config.yaml
│ └── solution_info.yaml
├── titanic.py
├── train_artifact # experimental_plan.yaml에 저장된 train: 의 artifact_uri 경로입니다. train pipeline의 정보가 저장됩니다.
│ ├── model.tar.gz # 학습된 모델이 저장된 gz 입니다.
│ ├── pipeline.log # titanic.py의 실행 로그입니다.
│ ├── process.log # alo 실행의 전반적인 log 입니다.
│ └── train_artifacts.tar.gz # log (pipeline.log, process.log), score (inference_summary.yaml)가 존재합니다.
└── train_dataset
└── train.csv

alo run이 성공적으로 실행됐다면, 다음 step에서 AI Solution register 과정을 진행할 수 있습니다!!