AI Contents 수정
AI Contents는 데이터의 입력, 전처리, 모델링 및 데이터의 출력 단계 별로 구분된 Asset(혹은 Step)들로 구성됩니다.
이러한 Asset 들은 정의된 순서에 따라 연결되어 ML Pipeline을 형성하고, 이 Pipeline을 통해 data가 흘러가면서 Asset들이 순차적으로 실행됩니다.
experimental_plan.yaml 파일에는 데이터 소스의 경로 설정을 비롯하여 전처리 파라미터, 모델 사양 및 하이퍼 파라미터 조정, 결과 artifacts 저장 경로 및 Pipeline 동작 컨트롤 등 AI Pipeline 구성에 필요한 내용이 기술됩니다.
이 experimental_plan.yaml 파일을 통해 데이터 경로를 지정하면 ALO은 해당 경로의 데이터를 input/train(혹은 inference) 경로로 복사하여 가져와서
실험 과정에 활용하게 됩니다. 이는 데이터 소스 변경과 실험 반복이 원활하도록 하여, 다양한 실험 시나리오를 손쉽게 진행 할 수 있게 합니다.
AI Contents를 실행하였는데 원하는 성능 기준을 충족하지 못하는 경우, 사용자는 특정 Asset을 수정하거나 자체 개발한 새로운 Asset을 추가 혹은 교체 할 수 있습니다.
예를 들어, 기존의 전처리 Asset이 데이터에 맞지 않는다고 판단되면, 새로운 전처리 로직을 개발하여 새로운 Asset을 만들어 이를 교체하여 모델 성능 극대화를 할 수 있습니다.
또한 ML Pipeline의 실행 속도를 개선하고자 한다면, 비효율적인 Asset을 식별해 제거함으로써 Pipeline의 가벼움과 빠른 실행을 도모할 수 있습니다.
ALO는 이처럼 각각의 Asset들이 환경에 적합하도록 쉽게 삽입 및 삭제될 수 있도록 설계되어 있습니다. 이를 통해 데이터 과학자 및 개발자는 과제에 대한 심층적인 통찰을 얻고,
신속한 실험을 통해 AI 모델의 성능을 지속적으로 향상 시킬 수 있습니다. ALO의 유연한 구조는 다양한 과제와 환경에서의 적용을 가능하게 하며, 적절한 AI Solution의 빠른 개발 및 통합을 추진합니다.
Topics
- 기존 Asset 수정하기
- 새 Asset 추가하기
- 기존 Asset 삭제하기
- ML Pipeline 동작 컨트롤하기
- Single Pipeline 만들기 (TBD)
- Inference Summary 정보 생성하기
- Inference Output 수정하기
- AI Solution 등록하기
기존 Asset 수정하기
특정 AI Contents 혹은 AI Solution 가 사용하는 각 Asset (= step)들 중 일부를 수정하려면 최초에 ALO의 main.py를 한 번 실행하여 assets 폴더에 각 Asset 코드를 먼저 다운로드 받습니다.
각 Asset의 코드 다운로드 완료 이후에는 Asset 수정 중에 각 Asset의 git에서 Asset 코드를 다시 다운로드 받지 않도록 experimental_plan.yaml의 asset_source 부분의 해당 Asset step의 code라는 key 영역을 git 주소가 아닌 local로 변경합니다.
Note : local 로 사용하는 경우는 특히, 기존에 git에 존재하지 않는 아예 새로운 Asset을 최초 개발할 때에도 사용할 수 있습니다.
Note : 혹은 새로운 Asset을 개발 하는게 아닌 기존에 git 상에 존재하는 Asset을 일부 수정하여 사용할 때는
experimental_plan.yaml의 control 부의 get_asset_source 부분을 once로 설정하면 최초 main.py 실행 이후에 재실행 할 시에는 각 Asset을 git으로부터 재다운로드 하지 않습니다.
#experimental_plan.yaml
asset_source:
...
- inference_pipeline:
...
- step: output
source:
code: local # git 주소가 아닌 local로 설정
branch: custom_output
requirements:
- requirements.txt