본문으로 건너뛰기

EVA

EVA는 머신러닝(ML), 대형 언어 모델(LLM), 비전 언어 모델(VLM)을 통합해 일반 카메라를 스마트 AI 카메라로 전환하는 혁신적인 솔루션입니다.
복잡한 코딩 없이 자연어 대화만으로 AI를 설정하고, 현장 환경에 맞춘 AI 서비스를 빠르게 구현할 수 있습니다.

EVA의 기능을 팟캐스트로 만나보세요.

서비스 시나리오

다양한 파운데이션 모델의 시너지

EVA 서비스 시나리오

EVA는 ML, VLM, LLM을 유기적으로 통합해 일반 카메라를 AI 카메라로 업그레이드합니다.
카메라를 EVA에 연결하면 LLM과 VLM이 자동으로 최적의 모델과 로직을 제안합니다.
ML 모델이 객체를 감지하면, VLM이 상황을 분석해 보호구 미착용 같은 위험을 정확히 판단하고 알림을 전송합니다.
모든 과정은 자연어 대화로 간단히 설정되며, 다양한 에이전트가 운영을 지원합니다.




스마트 AI 카메라로 전환

누구나 쉽게 구현하는 AI 카메라

카메라 네트워크 정보만 입력하면 EVA가 일반 카메라를 즉시 스마트 AI 카메라로 전환합니다.
위험 감지, 활동 모니터링, 품질 검사 등 다양한 시나리오를 바로 적용할 수 있습니다.


간단하게 AI 카메라로 전환하는 과정




EVA Agent와 함께

EVA Agent: AI 카메라의 강력한 조력자

EVA Agent는 최소한의 정보 입력으로 AI 카메라의 성능을 극대화합니다.
사용자가 제공한 데이터를 기반으로 상황에 맞는 최적의 동작을 수행합니다.


탐지 시나리오 강화 과정




대화로 제어하는 AI

EVA는 자연스러운 대화를 통해 AI를 직관적으로 제어할 수 있습니다.
사용자는 대화만으로 원하는 작업을 설정해 카메라 영상과 상황에 맞는 AI를 손쉽게 구성합니다.


대화로 탐지 대상, 이미지 밝기, 임계값 등을 설정하는 과정




간단한 현장 맞춤화

복잡한 코딩이나 데이터 수집, 라벨링 없이 현장에 최적화된 비전 모델을 구현합니다.
직관적으로 대상을 지정하면 EVA가 모델을 자동으로 맞춤화합니다.


특정 객체(예인선)에 탐지 모델 맞춤화 과정




다양한 시나리오 탐지

EVA는 비전 모델과 멀티모달 LLM을 결합해 영상을 정밀하게 분석합니다.
이상 탐지, 품질 관리, 안전 모니터링 등 다양한 문제를 해결하며,
탐지된 상황은 API를 통해 Teams, Slack 등으로 실시간 전송됩니다.


다양한 시나리오에 대해 탐지하고 메신저로 알림 전송하는 과정




피드백으로 진화하는 AI

EVA는 사용자의 피드백을 반영해 오탐지를 줄이고 탐지 정확도를 지속적으로 개선합니다.
오탐지 데이터를 학습해 비슷한 상황에서 더 정확한 판단을 내리도록 진화합니다.
이를 통해 오경보를 최소화하고 현장에 최적화된 AI 카메라를 제공합니다.


사용자 피드백으로 탐지 정확도 개선하는 과정




EVA Agent

인간의 뇌를 닮은 EVA Agent

EVA Agent는 인간의 뇌 구조에서 영감을 얻은 지능형 AI 서비스입니다.

EVA Agent 뇌 구조


(1) Reasoning 모델은 전두엽의 논리적 사고를 모방해 카메라 등록 시 최적의 탐지 시나리오나 적합한 모델을 추천합니다.
(2) LLM은 측두엽의 언어 이해 기능을 반영해 사용자와의 대화로 AI를 설정합니다.
(3) VLM은 후두엽의 시각 처리 능력을 기반으로 이미지를 분석합니다.
(4) Multi-modal Vector Store는 해마처럼 데이터를 저장해 RAG 기반의 정확도를 높입니다.
EVA Agent는 이 모든 요소를 통합해 최적의 성능을 제공합니다.




서비스 아키텍처

효율적이고 강력한 시스템 설계

EVA는 EVA App과 EVA Agent가 유기적으로 연동되어 AI 카메라를 효율적으로 운영합니다.
사용자의 인프라에 맞춰 ML, LLM, VLM을 유연하게 구성해 최적의 모델을 적용합니다.

EVA 서비스 아키텍처

Super Agent와 Sub Agent의 협업

EVA Agent는 Super Agent와 Sub Agent 구조를 통해 복잡한 요청을 처리합니다.
Super Agent는 사용자의 의도를 해석하고, 전략에 따라 Sub Agent를 선택해 목표를 달성합니다.
각 Sub Agent는 LLM, VLM 을 활용하여 전문화된 작업을 수행하고, 결과를 Super Agent에 제공합니다.
Super Agent와 Sub Agent의 모듈화된 설계로 유연성과 확장성을 제공하며, 복잡한 작업을 효율적으로 처리합니다.


최적의 멀티 파운데이션 모델

EVA는 성능과 비용을 종합적으로 고려해 ML, LLM, VLM을 유연하게 구성합니다.
카메라의 탐지 대상, 시나리오, 컨텍스트에 따라 가장 적합한 파운데이션 모델이 선택되며,
Sub Agent는 탐지 강화나 피드백 생성처럼 정확성이 요구되는 단발성 작업에 고성능 모델을 사용합니다.
반면, 상황을 지속적으로 모니터링하는 작업에는 비용 효율적인 모델이 활용됩니다.


효율적인 컴퓨팅 자원 활용

EVA는 Vision, LLM, VLM을 분리해 자원을 최적화합니다.
모든 모델을 단일 시스템에서 실행하면 자원 소모가 크고 처리 속도가 느려 카메라 수가 제한됩니다.
EVA App과 Agent의 분리된 아키텍쳐는 50대 카메라 기준 최대 70% 비용 절감 효과를 얻을 수 있습니다.




지속 가능한 고품질 AI 서비스

EVA는 Mellerikat 플랫폼 기반의 통합 아키텍처로 설계되었습니다.
EVA App과 EVA Agent가 서비스 하는 환경(클라우드 또는 온프레미스)에 설치되어 동작합니다.
Mellerikat 플랫폼에서 MLOps와 LLMOps로 AI 모델의 Life Cycle을 관리하며, Edge Conductor와 Logic Deployer로 최적의 솔루션을 배포합니다.
이를 통해 최신의 향상된 AI 로직과 모델을 지속적으로 배포 받습니다.

EVA 전체 아키텍처