
(중앙뉴스타임스 = 방재영 기자) 생성형 AI 확산과 함께 데이터 활용 방식이 근본적으로 바뀌고 있다. 과거에는 사람이 필요한 데이터를 수동으로 검색했다면, 이제는 AI가 스토리지에 저장된 원천 데이터를 직접 탐색하고 추론 과정에 활용하는 방향으로 변화하고 있다. 그동안 활용되지 않던 방대한 비정형 데이터 역시 AI의 검색 대상에 포함되면서, 스토리지 시스템의 역할 또한 단순 보관을 넘어 추론 과정에 직접 관여하는 실행 계층으로 확장되고 있다.
벡터 데이터베이스 ‘씨홀스(Seahorse)’와 전용 데이터 연산 가속 반도체(VDPU: Vector Data Processing Unit)를 자체 설계·개발해온 디노티시아(Dnotitia Inc., 대표이사 정무경)는 기자간담회를 통해 이러한 변화에 대응하는 추론 특화 ‘AI Storage’ 전략을 공식화했다. 디노티시아는 벡터 데이터베이스, 전용 가속 반도체, 장기기억 기술에 더해 생성형 AI의 단기 작업 메모리인 KV(Key-Value) Cache까지 아우르는 AI 기억 전반을 단일 데이터 스택으로 통합하겠다는 방향을 제시했다.
생성형 AI 이전에는 정제된 데이터를 데이터베이스에 저장하고 이를 질의하는 방식이 일반적이었다. 관계형 데이터베이스와 SQL 기반 데이터 활용이 중심이었으나, 생성형 AI 환경에서는 문서, 이미지, 비디오 등 비정형 원천 데이터를 의미 유사도 기반으로 탐색하고, 그 결과를 추론 과정에 직접 활용해야 한다는 점에서 접근 방식이 달라진다. 이에 따라 데이터베이스와 스토리지의 경계는 점차 희미해지고 있으며, 스토리지 시스템이 추론 과정에 참여하는 형태로 진화하고 있다.
최근 AI 에이전트는 방대한 데이터 기반의 외부 지식(External Knowledge), 사용자와 AI 간 히스토리를 축적하는 장기기억(Long-term Memory), 그리고 추론 과정에서 직전 문맥을 유지하는 단기 작업 메모리(KV Cache)라는 다층적 기억 체계 위에서 동작한다.
KV Cache는 생성형 AI가 문장을 생성하는 과정에서 이전 토큰 정보를 임시로 저장해 두는 메모리 영역으로, 응답 속도에 큰 영향을 미치므로 GPU 메모리에 위치해야 하며, 긴 컨텍스트를 지원하기 위해서는 대용량 메모리를 요구한다. 따라서 대규모 사용자 환경에서는 KV Cache의 용량과 관리 방식이 전체 추론 효율을 좌우하는 요소로 부상하고 있다.
디노티시아는 이러한 AI 기억 체계를 스토리지 차원에서 통합하는 ‘AI Storage’ 아키텍처를 제시했다.
첫 번째 계층은 의미 기반 검색을 담당하는 외부 지식 메모리다. ‘씨홀스’는 비정형 데이터를 고차원 벡터로 변환하고 유사도 계산을 통해 관련 정보를 추출한다. 이는 RAG(검색 증강 생성) 기반 AI 서비스에서 핵심 역할을 수행해 왔다. 데이터 규모가 수십억 건 단위로 확대될 경우 CPU·GPU 기반 연산은 비용과 지연 측면에서 부담이 커진다.
두 번째 계층은 장기기억 메모리다. 사용자 상호작용을 지속적으로 축적하고, 시간·의미 기반으로 정렬해 AI가 과거 맥락을 반영한 응답을 생성할 수 있도록 지원한다. 이는 에이전틱 AI 환경에서 개인화와 업무 연속성을 확보하기 위한 기반 기술이다.
세 번째 계층은 단기 작업 메모리에 해당하는 KV Cache 계층이다. 디노티시아는 NVIDIA의 차세대 플랫폼에서 제시된 ICMS(Interconnect and Memory Subsystem) 구조와 호환되는 AI 스토리지 아키텍처를 통해, 추론 단계에서 필요한 KV Cache를 스토리지 계층과 연동해 효율적으로 관리하는 기술을 개발하고 있다.
이 세 계층은 저장된 데이터가 의미 기반으로 탐색되고, 추론에 활용되며, 상호작용 결과가 다시 기억으로 축적되는 순환 흐름 안에서 작동한다. 디노티시아는 이를 ‘추론 중심 AI 환경에 최적화된 스토리지 전략’으로 규정했다. 이는 스토리지가 단순 저장 장치를 넘어 추론 실행 과정에 직접 관여하는 인프라로 확장한다는 점에서 의미를 가진다.
이를 고성능으로 처리하기 위해 디노티시아는 의미 기반 검색을 전담하는 전용 가속 반도체 ‘VDPU’를 설계했다. 의미 기반 검색을 범용 프로세서에서 분리해 하드웨어 차원에서 가속 처리함으로써, 대규모 데이터 환경에서도 안정적인 검색 성능과 전력 효율을 확보한다. VDPU는 작년 12월 테이프아웃을 완료했으며, 내년 양산할 계획이다.
정무경 디노티시아 대표는 “생성형 AI는 모델 단독으로 동작하는 것이 아니라, 지속적으로 대규모 데이터를 활용해 새로운 결과를 생성한다”며 “이러한 데이터에는 외부 지식과 장기기억, 단기기억이 포함되며, 이 같은 대규모 기억은 결국 스토리지 시스템으로 구현되어야 한다”고 말했다. 이어 “디노티시아는 씨홀스 스토리지를 기반으로 AI가 필요로 하는 모든 정보와 기억을 제공하는 인프라를 구축해 나가겠다”고 밝혔다.