본문으로 건너뛰기

"EVA" 태그로 연결된 9개 게시물개의 게시물이 있습니다.

Mellerikat EVA 플랫폼의 기능, 개선, 성공 사례를 소개합니다.

모든 태그 보기

네이버클라우드 기반 인프라 진화와 EVA 서비스 확장

· 약 2분
Daniel Cho
Daniel Cho
Mellerikat Leader


🏛️ 네이버클라우드 기반의 인프라 진화: 고효율·저비용 서비스 체계 확립

EVA는 기존 Public Cloud 환경에서 겪었던 인프라 운영의 한계를 넘어, NPU 중심의 최적화된 서버 스펙을 설계했습니다. 고비용 GPU 중심에서 고효율 NPU 중심으로의 전환을 통해, 기존 대비 훨씬 경제적이고 안정적인 서비스 공급이 가능해졌습니다. 이제 하드웨어와 플랫폼이 유기적으로 결합된 EVA SaaS는 고객들에게 끊김 없는 실시간 멀티모달 AI 경험을 선사할 것입니다.


🌐 EVA와 네이버 생태계의 만남: ‘지능형 공간 관리’의 지평을 넓히다

단순한 관제를 넘어 공간을 이해하고 보호하는 mellerikat EVA가 네이버클라우드 기반의 SaaS(Software as a Service) 환경 구축을 성공적으로 완료했습니다. 이번 구축은 단순히 클라우드 이전을 넘어, 네이버의 방대한 서비스 생태계와 EVA의 AI 기술이 결합하여 새로운 고객 가치를 창출하는 혁신적인 여정의 시작입니다.


🚒 [공공 안전] Naver 지도 연계: 국가적 재난 관리의 새로운 눈

EVA와 네이버 지도가 결합하여 대한민국 전역의 안전을 촘촘하게 연결할 수 있습니다. 지자체 및 소방청을 대상으로 산불, 화재, 홍수 등 대형 재난을 실시간 감시하는 서비스를 기획 중이며, EVA가 감지한 위급 상황이 네이버 지도의 정밀한 위치 정보와 실시간 연동되어, 골든타임을 사수하는 최적의 재난 관리 솔루션으로 자리 잡아 나갈 것 입니다.


🏪 [상생 혁신] Naver 플레이스 연계: 소상공인을 위한 ‘안심 케어’ 솔루션

네이버 플레이스를 이용하는 수많은 소상공인들의 소중한 점포를 EVA가 24시간 지킬 수 있게 됩니다. 점포 내 화재 징후나 안전 사고를 실시간 감지하여 소상공인이 안심하고 생업에 집중할 수 있는 환경을 제공하고자 합니다. EVA의 안전 관리 데이터를 기반으로 보험사와 협력하여 보험료율을 낮춘 전용 상품을 연계할 계획입니다. 이를 통해 소상공인들은 운영 리스크는 낮추고 고정 비용은 절감하는 실질적인 혜택을 누리게 됩니다.


🚀 끊임없이 확장되는 EVA x Naver 서비스 시너지

네이버클라우드플랫폼(NCP)은 EVA가 더 넓은 세상으로 나가는 든든한 기반이 됩니다. 우리는 앞으로도 네이버의 다양한 서비스와 연계하여 물류, 유통, 스마트시티 등 다양한 영역에서 이전에 없던 서비스 시나리오를 지속적으로 선보일 것입니다.


"공간에 지능을 더해 일상의 가치를 바꿉니다."

네이버의 강력한 서비스 네트워크와 EVA의 독보적인 AI 기술이 만들어갈 더 안전하고 편리한 미래를 기대해 주십시오.

GPU를 넘어 NPU로: EVA, 리벨리온 ATOM™-Max에서 '전 구간(End-to-End)' 서비스 검증 완료

· 약 2분
Gyulim Gu
Gyulim Gu
Tech Leader

지난 포스팅에서 저는 산업 현장의 24시간 '상시 가동 AI'를 위해 리벨리온(Rebellions) NPU와의 협력을 약속드린 바 있습니다.

https://mellerikat.com/blog/News/rebellions

그리고 오늘, 그 약속이 실질적인 기술적 결실로 맺어졌음을 기쁘게 공유합니다.

mellerikat의 EVA(Evolved Vision Agent)는 최근 리벨리온의 최신 서버용 NPU인 ATOM™-Max 환경에서 Vision 모델, LLM, VLM이 결합된 End-to-End 서비스 동작 검증을 성공적으로 마쳤습니다.


🛠️ 단순 모델 실행을 넘어 '전체 서비스 파이프라인'을 태우다

단순히 특정 모델 하나가 NPU에서 돌아가는 것과, 실제 서비스 전체가 안정적으로 구동되는 것은 차원이 다른 문제입니다. EVA는 이번 검증을 통해 다음의 전 과정을 ATOM™-Max 환경에서 단절 없이 구현했습니다.


카메라 입력 → 객체 탐지(Vision) → 시나리오 해석(VLM) → 상황 판단(LLM) → 알림 및 제어 전송

이는 개별 모델의 벤치마크 점수를 넘어, 실제 운영 환경에서 요구되는 복잡한 AI 파이프라인이 NPU 위에서 완벽하게 제어될 수 있음을 확인한 결과입니다. 리벨리온 측에서도 이번 사례를 "상용 NPU 위에서 VLM 기반 AI 서비스가 실동작한 최초의 사례"로 평가하며 큰 기대감을 나타내고 있습니다.


📈 다음 단계: '스트레스 테스트'를 통한 TCO 혁신의 정량화

성공적인 End-to-End 검증을 마친 EVA는 이제 실제 공장 환경을 가정한 스트레스 테스트 단계에 돌입합니다.

우리는 다수의 카메라가 동시에 입력을 쏟아내는 극한의 상황에서도 시스템의 안정성, 처리량(Throughput), 전력 효율을 정밀하게 분석할 예정입니다. 이를 통해 얻게 될 데이터는 고객사에게 다음과 같은 '실행 가능한 가이드'로 제공됩니다.

  1. 최적의 NPU 구성 표준 제시: 카메라 수와 요구되는 추론 성능에 따른 가장 경제적인 하드웨어 구성 가이드.

  2. GPU 대비 TCO 절감 효과 정량화: 단순 장비 가격이 아닌, 전력 소모와 운영 비용을 포함한 실질적 경제성 분석 결과 제공.

  3. 현장 맞춤형 도입 리스크 최소화: 표준화된 NPU 구성을 통해 도입 시간을 단축하고 확산 속도를 극대화.


✨ 결론: 고비용 GPU 의존도를 낮추고 '지속 가능한 AI'로

이번 검증의 핵심은 "멀티모달 산업 AI가 이제 NPU만으로도 실제 운영이 가능한 수준에 도달했다"는 점입니다.

비싼 GPU 비용 때문에 AI 도입을 망설였던 기업들에게 EVA와 리벨리온의 결합은 가장 현실적이고 강력한 대안이 될 것입니다. 고비용 구조를 깨고 효율적인 비용으로 안전·품질·생산성을 높이는 '지속 가능한 산업 AI의 표준', EVA가 리벨리온과 함께 완성해 나가겠습니다.

EVA Release v2.5.0

· 약 4분
Danbi Lee
Danbi Lee
Product Leader

EVA v2.5.0: 더 명확하게, 더 편리하게, 더 안정적인 운영 경험을 제공합니다

EVA v2.5.0은 실제 운영 현장에서 반복적으로 제기된 불편함을 해소하고, 사용자가 시스템 상태를 더 쉽게 이해하고 관리할 수 있도록 개선하는 데 중점을 두었습니다. 이번 버전에서는 탐지 이미지의 노출 부담을 낮추기 위한 블러 처리 기능, 라이선스 기반의 명확한 운영 가시성, 설정 과정의 사용성 향상을 위한 기능들이 새롭게 적용되었습니다. 운영자는 보다 예측 가능하고 안정적인 EVA 환경을 경험할 수 있습니다.



얼굴 자동 블러: 실시간으로 확인할 때는 선명하게, 기록·공유할 때는 안전하게

탐지된 이미지에서 사람 얼굴을 자동으로 흐리게 처리해, 채팅 알림이나 Webhook으로 이미지를 공유하더라도 불필요한 얼굴 노출을 최소화할 수 있습니다. 중요한 점은, 관제 중에 보는 실시간 스트리밍 화면은 기존처럼 선명하게 유지된다는 것입니다. 즉, 현장에서 빠르게 판단하고 대응하는 능력은 그대로 가져가면서, 저장되거나 외부로 전달되는 결과 화면에서만 얼굴이 블러 처리되어 기록·공유 단계의 부담을 덜어드립니다.




라이선스 상태를 한눈에: 언제까지 얼마나 사용 가능한지 바로 확인

라이선스 키를 등록하면 남은 사용 기간, 등록 가능한 카메라 대수, Trial/정식 버전 여부를 화면에서 바로 확인할 수 있습니다. 만료가 가까워지면 사전 알림이 제공되어 갱신 시점을 놓치지 않도록 도와주며, 라이선스가 만료되면 EVA 사용이 자동으로 중단되어 예기치 않은 상태에서 운영이 지속되는 것을 방지합니다. 이제 사용자는 별도의 문의나 내부 확인 절차 없이도 설치된 EVA의 라이선스 상태를 스스로 쉽게 파악하고, 보다 계획적이고 편리하게 운영할 수 있습니다.




객체 탐지 민감도: 숫자로 조절해 결과 변화를 직관적으로 체감

기존의 ‘탐지 민감도’라는 명칭은 ‘객체 탐지 민감도’로 더 분명한 용어로 변경되었으며, ‘낮음/높음’ 대신 0~1 사이의 숫자 값으로 조절할 수 있어 설정 변경이 탐지 결과에 어떤 영향을 주는지 더욱 직관적으로 이해하고 빠르게 조정할 수 있습니다. 민감도 값을 낮추면 더 많은 객체를 넓게 감지하고, 값을 높이면 더 확실한 상황에서만 감지하도록 동작합니다. 이 값은 비전 모델(VM)이 객체를 감지할 때 사용하는 임계값(threshold)으로 사용되며, 이렇게 감지된 객체 정보는 비전-언어 모델(VLM)에 전달되어 최종 시나리오 판단에 직접적으로 영향을 미치는 중요한 요소입니다. 보다 명확한 용어와 상세한 안내 가이드를 통해 환경에 맞는 적절한 값을 선택하여 원하는 탐지 성능을 도출해보세요. 또한 다음 버전에서는 탐지 결과를 기반으로 객체 탐지 민감도를 자동 설정하는 Agent 기능이 추가될 예정입니다. 카메라별 설정된 탐지 시나리오에 맞는 민감도 값을 스스로 조정하는 기능으로, 사용자 입장에서 더 편리하고 더 안정적으로 탐지 성능을 유지할 수 있도록 신규 기능을 지원할 계획입니다.




EVA 기능, 대화로 더 쉽게 이해하세요

EVA에서 제공하는 다양한 기능과 설정 방법이 궁금하다면, 화면 내 대화창을 통해 바로 확인할 수 있습니다. 기존에 제공되던 안내 기능이 한층 고도화되어, 특정 기능의 동작 방식과 설정 값의 의미, 적용 방법까지 보다 명확하고 체계적인 안내를 제공합니다. EVA와 관련된 기능과 설정에 대해서는 언제든지 질문할 수 있습니다.

복잡한 메뉴를 일일이 찾지 않아도, 필요한 정보를 자연어로 입력하면 즉시 안내를 받아 보다 빠르고 효율적인 운영이 가능합니다. 단순한 기능 설명을 넘어 설정 단계와 사용 방법을 함께 안내함으로써, 기능 이해부터 설정 가이드까지 실시간으로 확인할 수 있는 고도화된 지원 경험을 제공합니다.




카메라 설정: 단계별 이동 + 즉시 저장으로 더 빠르고 간편하게

네 단계로 구성된 카메라 설정 화면에서 값을 수정하거나 저장하기 위해 여러 번 이동·저장해야 했던 불편함이 개선되었습니다. 이제는 어느 단계에서든지 바로 저장할 수 있어 마지막 단계까지 이동했다가 다시 돌아오는 번거로움이 사라졌습니다. 카메라 설정 화면 상단의 Step 번호를 클릭해 원하는 단계로 즉시 이동할 수 있고, 각 단계에 위치한 저장 버튼을 통해 필요한 내용만 빠르게 반영할 수 있습니다. 여러 대의 카메라를 연속으로 설정할 때도 클릭 수가 줄어 전반적인 설정 과정이 훨씬 빠르고 편리해졌습니다.



EVA는 고객의 실제 운영 경험을 바탕으로 끊임없이 진화하고 있습니다.
EVA 개발팀은 고객 요구와 현장의 피드백을 누구보다 빠르게 제품에 반영하며, 정확도와 안정성 향상을 위해 지속적으로 기술을 고도화하고 있습니다.
앞으로도 고객이 기대하는 ‘제대로 만든 제품’명확한 가치로 전환하는 혁신을 이어가겠습니다.
여러분의 의견은 EVA를 더 강력하고 완성도 높은 솔루션으로 성장시키는 가장 중요한 힘입니다!



🚀Coming Soon: v2.6.0 미리 보기

  • 멀티 이미지 기반 탐지로 정확도 향상
  • 경량 운영을 위한 Vision Model 탐지 모드
  • 피드백 입력/확인 UX 대폭 개선

포스텍 미래기술센터, EVA와 함께 ‘세상을 읽는 AI’의 심장부로 도약하다

· 약 2분
Daniel Cho
Daniel Cho
Mellerikat Leader


대한민국 공학 교육과 연구의 메카, 포스텍(POSTECH) 미래기술센터가 mellerikat의 EVA도입을 공식 확정했습니다. 이번 협력은 단순한 캠퍼스 보안 강화를 넘어, 학내 모든 시각 데이터를 연구 자산으로 전환하는 ‘데이터 리빙랩(Living Lab)’ 구축의 핵심 이정표가 될 것입니다.


🏛️ 캠퍼스 전체가 거대한 AI 실험실로: Indoor & Outdoor 통합 센서 네트워크

포스텍 미래기술센터는 학내 곳곳에 설치된 기존 CCTV 인프라를 EVA 플랫폼으로 하나로 연결합니다. 캠퍼스 전역의 센서가 하나로 통합되어, 실제 환경에서 발생하는 정보를 인간의 개입 없이 실시간으로 인지(Perception)하고 추론(Reasoning)하는 인프라가 완성됩니다.


🧪 R&D의 새로운 연료: '버려지는 영상'에서 '가치 있는 데이터'로

지금까지 캠퍼스의 영상 데이터는 일정 기간이 지나면 삭제되는 휘발성 정보였습니다. EVA는 이 데이터를 연구를 위한 자산으로 탈바꿈시킵니다.

  • LLM & VLM 혁신의 촉매제: 비정형 영상을 구조화된 데이터로 자동 변환합니다. 이는 차세대 거대언어모델(LLM)과 시각-언어 모델(VLM) 학습을 위한 고품질 멀티모달 데이터셋이 되어, 연구진이 데이터 정제보다 인사이트 도출에 집중하게 돕습니다.
  • 시공간 메타데이터 결합: 단순히 영상만 저장하는 것이 아니라, '시험 기간(Time)'과 '도서관(Space)'의 혼잡도 같은 맥락(Context) 데이터를 결합하여 데이터의 밀도를 높입니다.

🔒 Privacy-by-Design: 수집과 동시에 완성되는 안전한 연구 자산

방대한 시각 데이터를 자산화하는 과정에서 포스텍 리빙랩이 가장 우선시하는 가치는 '프라이버시 보호'입니다.

  • 즉각적인 데이터 가공: 카메라로부터 수집된 원시 영상(Raw Data)을 서버에 저장하기 전, 수집 단계에서 즉시 분석을 수행합니다.
  • 자동 비식별화 처리: 분석 과정에서 개인의 신원을 식별할 수 있는 정보는 즉시 비식별화(De-identification) 처리됩니다. 이를 통해 연구진은 프라이버시 침해 우려 없이 고품질의 '연구용 데이터셋'을 안전하게 확보하게 됩니다.

🚀 '학생'이 생산자가 되는 연구 생태계 (Student as a Creator)

포스텍 리빙랩은 학생들을 단순한 서비스 수혜자가 아닌 기술의 생산자로 변화시킵니다. 실제 데이터 기반 AI 학습: 학생들은 교과서 예제 대신 자신이 생활하는 캠퍼스의 실제 데이터를 활용해 AI 모델을 학습시키고, 고도화된 판단 로직을 직접 구현합니다. 현장 맞춤형 서비스 개발: "식당 대기 줄 예측"이나 "강의실 에너지 최적화"와 같이 일상의 불편함을 해결하는 AI 서비스를 직접 배포하며, Physical AI 플랫폼의 가능성을 몸소 체험합니다.


"현실 세계를 데이터로 읽고, AI로 해석하며, 다시 현실을 이롭게 바꾼다."

포스텍과 EVA가 함께 만들어갈 이 선순환 구조는 대학 캠퍼스가 어떻게 미래 기술의 거점이 될 수 있는지 보여주는 완벽한 사례입니다. 포스텍의 일상이 데이터가 되고, 그 데이터가 다시 인류의 미래 기술이 되는 여정을 함께 지켜봐 주시기 바랍니다.

Rebellions x EVA - 하드웨어부터 서비스까지 풀스택 결합

· 약 3분
Daniel Cho
Daniel Cho
Mellerikat Leader

👉 EVA 기반의 산업 AI, 성능을 넘어 '경제성'의 답을 찾다

산업 현장에서 AI는 더 이상 필요할 때만 호출되는 기능이 아닙니다.

카메라와 센서가 쉼 없이 생성하는 데이터 흐름 위에서 24시간 중단 없이 추론을 수행하는 '상시 가동 시스템(Always-on)'이어야 합니다.

하지만 Vision-Language Model(VLM)처럼 거대해진 AI 모델을 기존의 비싼 GPU 기반 인프라에서 24시간 운영하는 것은 고객사에게 막대한 비용 부담을 안겨줍니다.

mellerikat EVA는 이 비용의 벽을 허물고 산업 AI의 실질적인 확산을 위해, 리벨리온(Rebellions)과 손을 잡았습니다.


👍 1. NPU: GPU의 한계를 넘는 '가격 경쟁력'과 '전성비'

산업용 VLM 서비스가 확산되기 위해서는 인프라 비용(TCO)의 혁신이 필수적입니다. 리벨리온 NPU는 범용 GPU 대비 뛰어난 효율성으로 이러한 요구를 충족합니다.

  • 독보적인 추론 성능: 리벨리온의 ATOM NPU는 MLPerf 등 글로벌 벤치마크에서 동급 GPU 대비 비전 영역에서 최대 3배 빠른 처리 속도를 증명했습니다.
  • 압도적 전성비와 비용 절감: 24시간 가동되는 환경에서 NPU는 GPU 대비 전력 소모를 50% 이상 낮추면서도 높은 처리량(TPS)을 유지합니다.
    이는 곧 고객의 운영 비용 부담을 직접적으로 낮추는 결과로 이어집니다.
  • VLM 최적화: FlashAttention, PagedAttention 등 최신 거대 모델 최적화 기술이 하드웨어 레벨에서 구현되어, 무거운 VLM도 가볍고 빠르게 동작합니다.

EVA가 리벨리온 NPU 위에서 동작한다는 것은, 고객이 가장 경제적인 비용으로 최첨단 Physical AI를 소유할 수 있음을 의미합니다.


👍 2. VLM 최적화: 다양한 모델 테스트와 기술 검증

mellerikat은 현재 EVA 플랫폼 내에서 다양한 최신 VLM 모델들을 리벨리온 NPU 환경에서 테스트하고 있습니다.

단순히 하드웨어를 교체하는 것에 그치지 않고, 산업 현장의 복잡한 시나리오를 NPU에서 최적의 속도로 처리할 수 있도록 소프트웨어 스택을 고도화하고 있습니다.

이 과정을 통해 현장에 즉시 투입 가능한 수준의 'NPU 기반 VLM 서비스 EVA'를 완성해 나가고 있습니다.


👍 3. LG전자 도입에서 글로벌 공급까지: 단계적 협력 로드맵

mellerikat과 리벨리온의 협업은 단순한 기술 제휴를 넘어 실질적인 비즈니스 확장을 목표로 합니다.

  1. VLM 최적화 고도화: 다양한 최신 VLM 모델을 리벨리온 NPU 상에서 테스트하여 최적의 전성비와 처리 속도를 확보하는 검증 단계를 거치고 있습니다.
  2. LG전자 생산 현장 도입: 검증된 VLM 모델과 NPU 최적화 기술을 바탕으로 LG전자 내 주요 생산 공정 및 안전 관제 시스템에 NPU 기반 AI 도입을 우선적으로 추진합니다.
  3. EVA + NPU 패키지 외부 공급: LG전자에서의 성공적인 레퍼런스를 바탕으로, 향후 외부에 EVA 플랫폼을 공급할 때 리벨리온 NPU를 결합한 통합 솔루션 형태로 제공할 예정입니다.

고객은 복잡한 하드웨어 선정 고민 없이, EVA를 도입하는 것만으로도 최적화된 하드웨어와 플랫폼이 결합된 풀스택 서비스를 합리적인 가격에 누릴 수 있게 됩니다.


👏 결론: 지속 가능한 산업 AI의 표준

EVA와 리벨리온 NPU의 결합은 AI를 단순한 기술 도입이 아닌, 현실적인 비용으로 계속 동작하는 서비스 구조로 완성하기 위한 전략적 선택입니다.

하드웨어부터 서비스 플랫폼까지 이어지는 이 강력한 협력을 통해, mellerikat은 산업 현장의 AI 전환을 가속화하고 고객의 인프라 부담을 근본적으로 해결하는 파트너가 되겠습니다.

EVA Release v2.4.0

· 약 4분
Jeongjun Park
Jeongjun Park
Product Developer

EVA v2.4.0: 탐지 모니터링 효율을 한 단계 높입니다

이번 EVA v2.4.0 릴리즈는 고객 여러분의 실제 운영 환경에서 제기된 요구사항을 반영하여, 모니터링 업무의 효율성과 사용자 경험을 크게 향상시켰습니다. 특히 이번 업데이트는 탐지 알람 우선 정렬, 디바이스 즐겨찾기 기능, 언어 지원 확대 기능, 탐지 결과 이미지 확대 기능을 중심으로, 모니터링 현장에서 즉시 체감할 수 있는 편리성을 제공합니다.




알람 우선 정렬 – 수많은 디바이스 중에서도 놓치지 않는 실시간 대응

수많은 디바이스가 연결되어 있는 관제 환경에서 가장 중요한 것은 알람 발생 지점에 대한 즉각적 식별과 대응입니다. EVA는 탐지 알람이 발생하면 해당 디바이스를 리스트 최상단으로 자동 이동시켜, 복잡한 목록 속에서도 알람 발생 디바이스를 우선적으로, 즉각 확인할 수 있도록 지원합니다. 이 기능은 동시다발적으로 알람이 발생하는 상황에서도 최신 이벤트를 맨 위에서 순서대로 보여주는 방식으로 설계되어, 스크롤이나 검색 없이 가장 중요한 화면을 한눈에 확인하도록 돕습니다. 결과적으로 관제 효율과 대응 속도가 크게 향상되며, 즐겨찾기 기능과 결합하면 핵심 디바이스 중에서 알람이 발생한 항목을 최우선으로 모니터링하는 운영이 가능합니다.




디바이스 즐겨찾기 – 담당자별 핵심 지점을 집중 모니터링

관제 대상 카메라가 많을수록 중요한 지점을 빠르게 확인하는 것이 관제 효율의 핵심입니다. EVA는 이번 업데이트를 통해 사용자가 자신이 담당하는 핵심 디바이스를 즐겨찾기에 등록하고, 필터링하여 즉시 접근할 수 있도록 지원합니다. 특히, 디바이스별 담당자가 다른 환경에서는 이 기능이 더욱 유용합니다. 각 담당자는 자신이 책임지는 영역의 디바이스를 즐겨찾기 그룹으로 관리하여 중요 지점을 놓치지 않고 집중 모니터링할 수 있습니다. 출입구, 고가 장비 보관구역, 안전 관리 구역 등 우선 감시 대상 카메라를 그룹화하여 운영하면, 관제 효율이 한층 높아집니다.




언어 지원 확대 – 누구나 쉽게 접근할 수 있는 EVA

EVA는 이제 한글과 영어를 모두 지원합니다. 설정 메뉴에서 원하는 언어를 선택할 수 있으며, 언어 변경은 관리자 또는 매니저 권한을 가진 계정에서만 가능합니다. 이번 업데이트는 AI에 익숙하지 않은 사용자도 쉽게 사용할 수 있도록 모든 화면과 기능을 한글로 제공하고, 전문 용어를 쉬운 단어로 변경했습니다. 또한, 탐지 분석 결과를 원하는 언어로 제공하여 커뮤니케이션 오류를 최소화합니다. 이를 통해 EVA를 처음 사용하는 사용자도 빠르게 적응하고, 팀 간 협업 환경에서도 일관된 언어로 정보를 공유할 수 있습니다.




탐지 결과 이미지 확대 확인 – 더 빠르고 정확한 상황 판단

실제 모니터링 환경에서는 탐지 알람 발생 이후, 탐지 결과 이미지를 얼마나 빠르고 정확하게 확인할 수 있는지가 대응 품질을 좌우합니다. EVA v2.4.0에서는 기존에 Teams나 Slack 등 외부 알림 메시지에서만 제공되던 이미지 확대 확인 경험을 EVA 자체 채팅 환경으로 확장했습니다. 이제 채팅창을 통해 전달되는 탐지 결과 이미지를 별도의 창으로 크게 확인할 수 있으며, 클릭 한 번으로 고해상도 이미지 확인과 자유로운 확대가 가능합니다. 기존처럼 채팅 영역 내 작은 이미지에 의존할 필요 없이, 보다 선명한 화면에서 탐지 결과를 즉시 분석할 수 있습니다. 이를 통해 사람, 차량, 객체 위치 등 핵심 탐지 요소를 세밀하게 확인할 수 있어 오탐 여부 판단은 물론, 후속 대응 결정에 소요되는 시간을 단축할 수 있습니다.

EXAONE과 EVA가 만드는 산업 AI의 새로운 기준

· 약 2분
Daniel Cho
Daniel Cho
Mellerikat Leader

AI 연구원의 깊이 있는 AI 연구 역량과 mellerikat의 혁신적인 Physical AI 플랫폼 EVA가 만나, 산업 현장을 근본적으로 바꾸기 위한 전략적 협업을 본격화합니다.

지금까지의 AI가 범용적인 답변을 내놓는 데 집중했다면, 우리가 지향하는 핵심은 'Vertical AI'입니다.

  • AI연구원 주도의 Vertical AI 모델: AI연구원은 특정 산업군에 최적화된 지식과 추론 능력을 갖춘 Foundation 모델을 개발합니다.
  • EVA와 결합한 산업 특화 서비스 상용화: 개발된 Vertical 모델은 mellerikat의 EVA에 즉시 탑재됩니다. EVA의 자연어 기반 시나리오 설정과 실시간 현장 제어 기술을 통해, 복잡한 코드 없이도 현장에서 즉각 작동하는 AI 애플리케이션으로 변모합니다.

산업 현장의 '산업 안전' 패러다임 시프트

우리의 첫 번째 타겟은 가장 높은 정밀도와 신뢰성이 요구되는 '산업 안전' 영역입니다.

  • Safety-Specific 모델: 건설 및 제조 현장의 특수한 위험 요소를 깊이 있게 이해하는 전용 모델을 구축합니다.
  • 지능형 관제 솔루션: EVA의 '보여지는 것을 넘어 이해하는' 비전 능력을 결합해, 단순 침입 감지를 넘어 작업자의 위험 행동을 선제적으로 예측하고 대응하는 차세대 산업 안전 솔루션을 주요 제조 및 건설사에 공급할 계획입니다.

EXAONE 생태계의 핵심 플레이어로서의 도약

이번 협업은 국내 최고 수준의 초거대 AI 생태계인 LG EXAONE Alliance와 궤를 같이합니다. 현재 23개의 선도적 파트너사가 참여 중인 EXAONE 생태계에서, EVA는 실제 물리 세계와 AI를 연결하는 핵심 Agentic AI 플랫폼으로서의 역할을 수행합니다.

Global GTM(Go-To-Market): EXAONE의 강력한 생태계 시너지를 기반으로 글로벌 시장 진출 속도를 높이고, 다양한 도메인의 파트너들과 함께 강력한 시장 경쟁력을 확보할 것입니다.

AI연구원과 함께 기술이 연구실의 문턱을 넘어 우리 삶과 산업의 가장 뜨거운 현장에서 가치를 증명하는 여정, 그 혁신의 중심에 서겠습니다.

캠퍼스, 안전을 넘어 지능을 갖다: EVA와 함께하는 Postech Living Lab 프로젝트

· 약 3분
Daniel Cho
Daniel Cho
Mellerikat Leader

캠퍼스, 안전을 넘어 지능을 갖다: EVA와 함께하는 Postech Living Lab 프로젝트

대학 캠퍼스는 거대한 데이터의 바다입니다. 매일 수천 명의 사람들이 이동하고, 생활하고, 상호작용합니다. 하지만 지금까지 이 공간을 비추던 카메라는 오직 '보안'과 '감시'를 위해서만 존재했습니다. 기록된 수많은 영상 데이터는 아무런 가치를 창출하지 못한 채 시간이 지나면 삭제(Discard)되어 왔습니다.

우리는 질문을 던졌습니다. "이 방대한 데이터를 단순히 버리는 것이 아니라, 학교를 더 똑똑하게 만드는 '자산(Asset)'으로 쓸 수는 없을까?"

이 질문에서 EVA(Evolved Vision Agent) 기반의 Postech Living Lab 프로젝트가 시작되었습니다.

EVA Release v2.3.0

· 약 3분
Danbi Lee
Danbi Lee
Product Leader

EVA v2.3.0: 현장 운영을 더 스마트하고 정밀하게 만드는 세 가지 혁신

이번 EVA v2.3.0 릴리즈는 단순한 기능 추가가 아니라, 대규모 카메라 운영의 비효율을 해결하고, 탐지 정확도를 높이며, 사용자 경험을 획기적으로 개선하는 업데이트입니다. EVA는 전보다 더 똑똑하고, 더 직관적이며, 더 강력해졌습니다.




반복 작업은 이제 그만! Common & Custom 탐지 시나리오

대규모 카메라를 운영하는 현장에서 가장 큰 고민 중 하나는 동일한 탐지 시나리오를 수십, 수백 대의 카메라에 반복 등록해야 하는 비효율입니다. 예를 들어, 100대의 카메라를 운영한다면 관리자는 동일한 시나리오를 100번 등록해야 했습니다. 시간과 노력이 많이 드는 작업이었죠.

EVA v2.3.0은 이 문제를 해결하기 위해 Common 시나리오 기능을 도입했습니다. 이제 관리자는 EVA 설정 메뉴에서 Common 시나리오를 한 번만 정의하면 됩니다. 연결된 카메라는 이 시나리오를 그대로 자동 적용할 수 있고, 필요하다면 카메라별로 Custom 시나리오를 추가해 개별 설정도 가능합니다. 더 나아가 EVA는 Common과 Custom 시나리오를 동시에 적용할 수 있어 운영 유연성이 크게 향상됩니다.

EVA 사용자에게 어떤 이점이 있을까요?

  • 대규모 운영에서 등록 시간과 반복 작업이 획기적으로 줄어듭니다.
  • Common 시나리오를 수정하면 모든 카메라에 자동 반영되므로 관리 효율성이 극대화됩니다.
  • 관리자는 반복적인 작업에서 벗어나 전략적 운영과 안전 강화에 집중할 수 있습니다.