아마존웹서비스(AWS)는 오늘 AWS 리인벤트(re:Invent)에서 아마존 베드록(Amazon Bedrock)의 새로운 기능을 발표했다.
아마존 베드록은 고성능 기반 모델을 활용해 생성형 AI 애플리케이션을 손쉽게 구축하고 확장할 수 있는 완전 관리형 서비스다.
이번 발표를 통해 고객들은 AI 모델의 환각(hallucination) 현상으로 인한 사실적 오류를 예방하고, 복잡한 작업을 처리하기 위해 다중 AI 에이전트를 조율하면서 대규모 모델에 준하는 성능을 유지 및 비용과 지연 시간을 대폭 줄인 소규모 태스크 특화 모델을 개발할 수 있게 되었다.
스와미 시바수브라마니안(Swami Sivasubramanian) AWS 데이터 및 AI 부문 부사장은 “아마존 베드록은 다양한 모델 제공, 개발자가 생성형 AI를 애플리케이션에 쉽게 통합할 수 있도록 돕는 선도적인 기능, 그리고 보안과 프라이버시에 대한 강한 의지를 바탕으로, 생성형 AI를 애플리케이션 및 비즈니스의 핵심 요소로 삼으려는 고객들에게 필수적인 서비스로 자리 잡았다”며, “이로 인해 아마존 베드록 사용 고객은 지난 1년간 4.7배 성장했다. 시간이 지나면서 생성형 AI가 더 많은 기업과 고객 경험을 혁신함에 따라, 추론은 모든 애플리케이션의 핵심 요소가 될 것이다. 우리는 이번에 출시한 새로운 기능으로 고객을 대신해 환각 현상이나 비용과 같은 업계 전반의 주요 과제를 해결하며 혁신을 이루고 있다”고 말했다.
AI 모델은 계속 발전하고 있지만, 가장 강력한 모델조차도 환각 현상으로 인해 잘못되거나 오해를 불러일으킬 수 있는 응답을 제공할 가능성이 있다. 이러한 환각 현상은 생성형 AI에 대한 신뢰도를 저하시켜 업계 전반에서 중요한 과제로 남아 있다.
특히 정확성이 필수적인 의료, 금융 서비스, 정부 기관과 같은 규제 산업에서는 모델이 적절하게 응답하고 있는지를 확인하기 위한 감사가 필수적이다. 자동 추론 검증은 논리적으로 정확하고 검증 가능한 추론을 통해 환각 현상으로 인한 사실 오류를 방지하는 유일한 생성형 AI 안전 장치다. 이를 통해 모델 응답에 대한 신뢰를 높이고, 정확성이 중요한 새로운 생성형 AI 활용 사례를 실현할 수 있다.
자동화된 추론은 수학을 활용해 어떤 것이 올바른지 증명하는 AI의 한 분야다. 이 기술은 사용자들이 정교한 규칙이나 지식 체계가 잘 정의된 대규모 복잡한 주제에 대해 정확한 답을 필요로 할 때 특히 강점을 발휘한다.
AWS는 지난 10년간 해당 기술을 활용해 보안 강화를 위해 권한 및 접근 제어가 올바르게 구현되었는지 검증하거나, 아마존 S3에서 수백만 개의 시나리오를 배포 전에 점검해 가용성과 내구성을 보장하는 등 다양한 AWS 서비스 경험을 개선해왔다.
아마존 베드록 가드레일(Amazon Bedrock Guardrails)은 생성형 AI 애플리케이션에 검증 기능을 손쉽게 더해 안전성과 책임성을 높일 수 있다. 이를 통해 고객은 모델이 관련 주제에만 응답하도록 가이드를 설정할 수 있다.
아마존 베드록 가드레일을 통해 제공되는 자동화 추론 검증은 아마존 베드록이 응답의 정확성을 검증하고, 감사 가능한 결과물을 생성하며, 모델이 특정 결과에 도달한 이유를 고객에게 명확히 제시할 수 있도록 한다. 이는 투명성을 강화하고, 모델 응답이 고객의 규칙과 정책에 부합하도록 보장한다.
PwC는 자동화 추론 검증을 활용해 정확하고 신뢰할 수 있는 AI 비서와 에이전트를 개발하여 고객 비즈니스를 선도적인 수준으로 이끌고 있다. PwC는 금융 서비스, 헬스케어, 생명 과학 분야의 고객들을 위해, AI가 생성한 콘텐츠가 FDA(Food and Drug Administration)와 같은 규제 기관의 기준 및 기타 규제 표준을 준수하는지 검증하는 애플리케이션에 자동화 추론 검증을 적용하고 있다. 또한 내부적으로는 생성형 AI 비서와 에이전트가 제공하는 응답의 정확성과 내부 정책 준수를 보장하기 위해 해당 기술을 활용하고 있다.
기업들이 생성형 AI를 애플리케이션의 핵심 요소로 활용함에 따라, 단순히 콘텐츠를 요약하거나 챗봇 기능을 제공하는 것을 넘어 애플리케이션이 실제 작업을 수행하기를 기대하고 있다. AI 기반 에이전트는 이러한 요구를 충족하기 위해 모델의 추론 능력을 활용하여 작업을 세분화하고 실행 가능한 단계로 나눔으로써, 제품의 반품이나 고객 데이터 분석과 같은 작업을 수행할 수 있도록 돕는다.
아마존 베드록 에이전트(Amazon Bedrock Agents)는 고객이 기업의 시스템과 데이터 소스에서 이러한 에이전트를 손쉽게 구축하고 작동시킬 수 있도록 지원한다. 단일 에이전트도 유용할 수 있지만, 수백 개에서 수천 개의 다양한 변수를 다루는 금융 분석과 같은 복잡한 작업에는 각 작업에 특화된 다수의 에이전트가 필요할 수 있다.
그러나 이러한 다중 에이전트를 조율하고, 에이전트 간의 정보를 원활히 공유하며, 다양한 작업을 적합한 에이전트에 유동적으로 할당하려면 전문적인 도구와 생성형 AI 기술이 요구된다. 이는 많은 기업이 보유하지 못한 기술적 장벽이기도 하다.
이를 해결하기 위해 AWS는 아마존 베드록 에이전트를 확장하여 다중 에이전트 협업을 지원한다. 이를 통해 고객은 고도로 전문화된 에이전트를 쉽게 구축하고 복잡한 워크플로우를 효율적으로 실행할 수 있게 되었다.
아마존 베드록의 다중 에이전트 협업 기능을 통해 고객은 프로젝트의 각 단계에 특화된 에이전트를 생성하고 할당함으로써 더 정확한 결과를 얻을 수 있으며, 여러 에이전트를 병렬로 조율하여 작업 속도를 높일 수 있다.
글로벌 신용평가 및 금융 인사이트 분야의 선도 기업인 무디스(Moody’s)는 아마존 베드록의 다중 에이전트 협업 기능을 활용해 리스크 분석 워크플로우를 혁신적으로 개선하고 있다.
무디스는 아마존 베드록을 사용해 각각의 에이전트에 특정 작업을 할당하고, 해당 작업을 수행하는 데 필요한 맞춤형 데이터셋에 접근할 수 있도록 하고 있다.
예를 들어, 한 에이전트는 거시경제 동향을 분석하고, 또 다른 에이전트는 독점 재무 데이터를 사용해 기업별 리스크를 평가하며, 나머지 에이전트는 경쟁사 대비 포지션을 벤치마킹한다. 이 에이전트들은 서로 유기적으로 협업하여 각 작업의 결과를 종합하고, 정밀하고 실행 가능한 인사이트를 도출한다.
오늘날 고객들은 비즈니스의 고유한 요구를 충족하기 위해 다양한 모델을 실험하고 있다. 그러나 현재 사용 가능한 모델 중에서 특정 지식, 비용, 응답 속도의 균형을 완벽히 맞춘 모델을 찾는 것은 여전히 어려운 과제다. 대규모 모델은 더 많은 정보를 처리할 수 있지만 응답 시간이 길고 비용이 높으며, 소규모 모델은 빠르고 실행 비용이 낮지만 처리 역량이 제한적이다.
모델 증류는 대규모 모델의 지식을 소규모 모델로 이전하면서도 소규모 모델의 성능 특성을 유지하는 기술이다. 그러나 이 작업은 훈련 데이터를 다루고, 모델을 수동으로 세밀히 조정하며, 초기 소규모 모델의 성능을 훼손하지 않고 가중치를 조정할 수 있는 전문적인 머신러닝(ML) 기술을 요구한다.
아마존 베드록 모델 증류(Amazon Bedrock Model Distillation)를 통해 고객들은 독자적인 모델을 증류하여, 원래 모델보다 최대 500% 더 빠르게 실행하고 비용은 75%까지 절감하며, 정확도 손실은 2% 미만으로 유지할 수 있다. 이러한 방식은 검색 증강 생성(RAG)과 같은 사례에도 적합하다. 고객은 이제 ML에 대한 전문 지식이 없이도 자신만의 사용 사례에 맞는 최적의 역량, 정확성, 응답 속도, 비용 조합을 달성할 수 있다.
아마존 베드록 모델 증류를 활용하면 고객은 특정 용도에 가장 적합한 모델과 함께, 애플리케이션의 요구에 맞는 지연 시간을 제공하면서 비용 효율적인 동일 계열의 더 작은 모델을 손쉽게 선택할 수 있다. 고객이 샘플 프롬프트를 제공하면, 아마존 베드록이 응답 생성부터 더 작은 모델의 미세 조정까지 모든 작업을 처리하며, 필요 시 추가 샘플 데이터를 생성해 증류 과정을 완성한다.
이를 통해 대형 모델의 지식과 정확도는 유지하면서도 더 작은 모델의 속도와 비용 효율성을 제공하는 결과를 얻을 수 있어, 실시간 채팅 상호작용과 같은 생산 환경의 활용 사례에 이상적이다. 모델 증류는 앤스로픽(Anthropic)과 메타(Meta)의 모델을 지원한다.
로빈AI는 복잡한 법적 절차를 더 신속하고 저렴하며 접근성을 높이기 위해 AI 기반 어시스턴트를 제공하는 기업으로, 모델 증류를 활용해 수백만 개의 계약 조항에 대한 고품질 법률 질의응답 서비스를 지원하고 있다. 이를 통해 로빈AI는 더 낮은 비용으로 필요한 정확도를 확보하면서, 빠른 응답 속도를 통해 고객과 어시스턴트 간의 상호작용을 더욱 원활하게 한다.
자동화된 추론 검증, 다중 에이전트 협업, 그리고 모델 증류는 현재 프리뷰로 제공되고 있다.
★정보보안 대표 미디어 데일리시큐 / Dailysecu, Korea's leading security media!★