Arya.ai가 5월 12일 APEX MCP (Model Context Protocol) 클라이언트•서버 애플리케이션을 출시했다. 이는 범용 대형언어모델(large language model, 이하 'LLM')을 검증 가능한 '도메인 전문가(domain expert)', 즉 특정 산업이나 주제 영역에 심층적 지식을 가진 전문가로 변환시켜줄 수 있는 획기적인 오케스트레이션 레이어(orchestration layer)다. 오케스트레이션 레이어란 여러 개의 복잡한 구성 요소나 작업을 자동으로 조율하고 연결해주는 중간 관리자 역할을 하는 계층을 말한다.
LLM이 고객 지원, 운영, 컴플라이언스(규제 준수) 워크플로 전반에 걸쳐 필수 요소로 자리 잡고 있지만 작업에서 환각 현상, 일관성 부족, 낮은 신뢰성 같은 익숙한 문제가 생기고 있다. Arya.ai은 이런 문제를 해결하기 위해 어떤 LLM이라도 도메인 전문 지식으로 감싸는 사전 훈련된 모듈형 애플리케이션 계층을 도입해 LLM을 신뢰할 수 있게 만든다.
디크시스 마를라(Deekshith Marla) Arya.ai 설립자는 "MCP(Model Context Protocol)는 본래 도메인 맥락을 제공하고, 환각 현상을 줄이고, 생성형 AI 기반 애플리케이션에 정밀함을 더해주는 오케스트레이션 엔진으로 설계됐다"면서 "이는 단순히 더 똑똑한 프롬프트(지시어)를 제공하는 차원을 벗어나 검증되고 입증된 전문 지식의 기반에서 가치를 창출하는 것"이라고 말했다.
Arya의 MCP 지원 APEX 플랫폼은 기본 LLM의 기능을 확장해주는 100개 이상의 사전 구축된 AI 모듈을 통해 팀이 재무, 컴플라이언스, 개인정보 보호, 고객 경험 등 다양한 분야를 아우르는 워크플로를 손쉽게 구성할 수 있게 해준다. 각 모듈은 재무제표 분석, 신용 평가, 문서 위변조 감지, 신원 확인, 오디오 분석, 보험 청구 처리 등 복잡한 특정 도메인 작업을 처리할 수 있게 설계됐다.
모듈은 검색 가능한 카탈로그에서 쉽게 찾을 수 있고, JSON-RPC로 호출되며, APEX의 노코드(no-code) UI를 통해 연결될 수 있다. 데이터 추출, 규칙 적용, 맥락 사전 처리 등 어떤 작업이든 각 모듈은 LLM을 도메인 기반 인풋으로 감싸고, 아웃풋을 사후 검증하여 설계 단계에서부터 AI를 신뢰할 수 있게 만든다.
MCP 서버는 모듈 탐색, 실행, 로그 기록을 처리하고, MCP 클라이언트는 사전 처리 및 LLM 통합을 조정한다. 특히 LLM에 독립적이기 때문에 기업은 완전한 유연성을 확보할 수 있다. 은행은 이제 여러 애플리케이션 간 이동 없이 거래 문서를 분석하고 위험을 평가하며 보고서를 생성할 수 있다.
복잡한 규제를 효율적으로 관리하고 금융사고를 예방할 수 있게 돕는 레그테크(RegTech) 기업은 감사 추적 기록이 완비된 상태에서 컴플라이언스 워크플로를 자동화할 수 있다. 고객 경험 전담팀은 고객 피드백으로부터 인사이트를 추출하고, 지원 요청 이슈를 적절히 분류하여 즉시 다음에 취해야 할 조치를 추천할 수 있다.