본문으로 건너뛰기

EVA

EVA는 비전 모델과 Multi-modal LLM을 결합하여 일반 카메라를 스마트 AI 카메라로 전환하는 혁신적인 도구입니다.
복잡한 코딩 없이 자연스러운 대화로 AI를 제어하고, 현장에 맞춘 AI 서비스를 손쉽게 구현할 수 있습니다.

아래의 플레이어를 통해 EVA에 대한 자세한 내용을 팟캐스트로 들어보세요.

서비스 시나리오

비전 모델과 Multi-modal LLM의 완벽한 조화

비전 모델과 LLM 결합 구조

EVA는 비전 모델과 Multi-modal LLM을 결합하여 강력한 기능을 제공합니다.
Multi-modal LLM은 사용자의 자연스러운 대화를 통해 비전 모델이 수행할 작업을 설정하면 비전 모델은 카메라에서 실시간으로 이미지를 분석합니다.
예를 들어, 위험 감지, 활동 모니터링, 품질 검사 등 다양한 작업을 대화만으로 쉽게 구성할 수 있습니다.




서비스 시나리오 예시

비전 모델이 이미지를 분석하면 Multi-modal LLM을 통해 상황을 인식한 후 정의한 이벤트를 수행합니다.
이러한 서비스는 Mellerikat에서 제공하는 다양한 기술을 활용해 현장의 문제를 빠르고 효율적으로 해결할 수 있도록 구성합니다.




서비스 시나리오 예시

서비스의 목적과 배경에 대해 간략히 설명해 주세요.
EVA는 사용자의 설명에서 Context를 추출하고 상황에 맞는 모델과 AI 로직 및 운영 환경 설정까지 자동으로 구성하여 최적의 서비스를 제공합니다.




Smart AI 카메라로 전환

누구나 쉽게 만드는 스마트 AI 카메라

EVA는 카메라의 네트워크 정보만 입력하면 일반 카메라를 바로 스마트 AI 카메라로 전환할 수 있습니다.
위험 감지, 활동 감지, 품질 검사 등 다양한 상황을 EVA에 연결해 즉시 활용해보세요.


카메라 등록 과정을 보여주는 영상




단순히 이미지를 받아오는 것을 넘어, 서비스에 필요한 카메라 제어 기능도 지원합니다.




대화로 만드는 최적의 AI

EVA는 자연스러운 대화를 통해 AI를 직관적으로 제어할 수 있습니다.
사용자는 대화로 원하는 작업을 설정하여 카메라의 영상과 상황별로 맞춤화된 AI를 구성할 수 있습니다.


객체 탐지 설정 영상





카메라 별 설정 영상




도메인에 대한 이해

현장에 최적화된 AI 솔루션

현장마다 필요한 도메인 지식은 다릅니다. EVA는 복잡한 코딩, 데이터 수집, 라벨링 과정 없이도 대화만으로 현장에 맞춘 비전 모델을 구현할 수 있게 해줍니다.
전문 지식이 없어도 누구나 쉽게 사용할 수 있는 것이 강점입니다.

결함 탐지 예시

정상과 결함 예시


특정한 결함 탐지 모델 맞춤화 영상




Context-Aware

상황을 이해하는 스마트 AI

비전 모델과 Multi-modal LLM의 결합을 통해 이미지를 분석하고 상황 맥락을 정밀하게 파악합니다.
이를 통해 현장에 최적화된 지능적인 의사결정을 지원하며, 이상 탐지, 품질 검사, 안전 모니터링 등 다양한 문제를 신혹히 해결합니다.


현장에 맞는 에이전트 프롬프트를 통해 상황을 인식하는 영상





다양한 현장에서 EVA의 AI 기술이 실시간으로 상황을 인식하고 분석하여, 사람, 차량, 객체의 움직임과 위험 상황을 직관적으로 설명하는 영상




Notification

인식된 상황에 대해 Teams, Slack, 이메일 등 다양한 채널을 통해 알림을 제공합니다.




서비스 아키텍처

효율적이고 강력한 시스템 구조

EVA 아키텍처

사용자는 EVA Service App을 통해 EVA Agent와 대화하면서 각 카메라에 맞춤화된 로직 또는 모델을 EVA Edge에 설정할 수 있습니다.
EVA Edge는 파이프라인 모듈을 통해 카메라의 프레임을 수집하며, Vision Solution을 활용하여 Zero-shot 또는 Few-shot 방식으로 객체를 탐지합니다.
객체가 탐지되면 EVA Agent에 상황 인식 및 사전에 정의된 시나리오 여부를 판단하도록 요청하며, 조건에 부합하면 알림을 전송하거나 외부 시스템에 데이터를 제공합니다.
파이프라인 모듈과 Vision Solution은 시스템 환경에 맞게 여러 개가 동시에 작동하여 리소스를 효율적으로 활용하고 각 카메라의 AI 분석 지연 시간을 최소화합니다.




EVA 아키텍처

EVA Agent는 사용자의 인프라에 맞게 LLM과 VLM을 유연하게 구성할 수 있도록 설계되어, 사용 목적에 맞는 모델을 적용할 수 있습니다.
VLM은 카메라를 통해 상황을 지속적으로 인식하고 판단하므로, 기본적으로 로컬 모델을 실행하여 사용 비용을 최소화합니다.
사용자와의 대화 시 실행되는 LLM은 VLM을 활용할 수 있으며, 다국어를 효과적으로 이해하는 모델이나 Public API를 선택적으로 사용할 수 있습니다.
VLM 역시 Public API를 활용할 수 있으므로, 운영 비용과 모델 적합성을 고려하여 최적의 환경을 구성할 수 있습니다.




최적의 컴퓨팅 자원 활용


EVA는 Vision 모델과 Multi-modal LLM을 분리하여 최적으로 자원을 사용합니다.
Multi-modal LLM 단독 운영 시 높은 자원 사용과 긴 처리 시간이 문제가 됩니다.
EVA의 분리형 구조는 50대 카메라 서비스 제공 시
Multi-modal LLM 단독 운영 대비 최대 70% 비용 절감을 실현하며, 카메라 수가 늘어날수록 비용 효율이 더욱 커집니다.




지속적인 고품질의 AI 서비스

EVA 서비스 아키텍쳐

EVA는 Mellerikat 플랫폼 기반의 다양한 제품과 기술이 결합된 아키텍처로 구성됩니다.
EVA Service App과 EVA Edge를 사용자 환경에 설치하여 현장 카메라와 연결하고, 필요 시 EVA Agent를 현장에 추가 설치하여 서비스를 제공합니다.
현장에 설치된 EVA는 Mellerikat 플랫폼을 통해 고품질 AI 로직과 모델을 지속적으로 제공받아 업데이트할 수 있습니다.




EVA 서비스 아키텍쳐

Mllerikat 플랫폼은 MLOps와 LLMOps를 통해 AI 모델의 Life Cycle을 관리 합니다.
최신의 검증된 모델이나 문제를 해결하는 로직을 지속적으로 등록 하고, Edge Conductor를 통해 EVA Edge에 Vision Solution을 배포하며,
Logic Deployer를 통해 AI Pack을 EVA Agent에 배포합니다.
일회성으로 설치하는 것이 아니라 지속적으로 성능을 관리하여 고품질의 서비스를 제공합니다.