개요
Generative AI Application Builder on AWS를 사용하면 AI 관련 경험이 많지 않아도 생성형 인공 지능(AI) 애플리케이션을 쉽게 개발하고 신속하게 실험하며 배포할 수 있습니다. 이 AWS 솔루션은 비즈니스별 데이터와 문서를 모으고 대규모 언어 모델(LLM)의 성능을 평가 및 비교하며 확장 가능한 애플리케이션을 신속하게 구축하고 엔터프라이즈급 아키텍처를 이용하여 이러한 애플리케이션을 배포하는 데 도움이 됩니다. 따라서 이 솔루션을 구현하면 개발을 가속화하고 실험을 간소화할 수 있습니다.
Generative AI Application Builder on AWS에는 Amazon Bedrock과 포함된 LLM 및 Amazon SageMaker에 배포된 LLM과의 통합이 포함되어 있습니다. 또한 이 솔루션을 사용하면 LangChain 또는 AWS Lambda를 사용하여 원하는 모델에 연결할 수 있습니다. 먼저 노코드 배포 마법사를 사용하여 대화형 검색, 생성형 AI 기반 챗봇, 텍스트 생성, 텍스트 요약을 위한 생성형 AI 애플리케이션을 빌드하세요.
이점
이 솔루션을 사용하면 사용자는 다양한 구성의 여러 인스턴스를 배포하고 출력과 성능을 비교하는 데 동반되는 번거로운 작업을 없애고 빠르게 실험할 수 있습니다. 다양한 LLM, 프롬프트 엔지니어링, 엔터프라이즈 기술 자료 및 기타 파라미터의 다양한 구성을 실험해 보세요.
이 솔루션에는 Amazon Bedrock을 통해 사용할 수 있는 모델을 포함하여 다양한 LLM에 대한 커넥터가 사전 구축되어 있기 때문에 원하는 모델과 선호하는 AWS 및 주요 FM 서비스를 유연하게 배포할 수 있습니다.
AWS Well-Architected 설계 원칙에 따라 빌드한 이 솔루션은 가용성은 높고 지연 시간은 짧은 엔터프라이즈급 보안과 확장성으로 고성능 표준에 따라 애플리케이션과 원활하게 통합할 수 있습니다.
기존 프로젝트를 통합하거나 추가 AWS 서비스를 기본으로 연결하여 이 솔루션의 기능을 확장하세요. 오픈 소스 애플리케이션이기 때문에 LangChain 오케스트레이션 계층 또는 Lambda 함수를 사용하여 원하는 서비스에 연결할 수 있습니다.
기술 세부 정보
구현 가이드 및 함께 제공되는 AWS CloudFormation 템플릿을 사용하여 이 아키텍처를 자동으로 배포할 수 있습니다. 템플릿은 2개의 개별 아키텍처를 배포합니다.
- 배포 대시보드 - 배포 대시보드는 관리자가 사용 사례를 보고 관리하며 생성할 수 있는 관리 콘솔 역할을 하는 웹 사용자 인터페이스(UI)입니다. 이 대시보드를 사용하면 고객은 다양한 LLM과 데이터 구성을 사용하여 생성형 AI 애플리케이션을 빠르게 실험하고 반복하며 배포할 수 있습니다.
- 텍스트 사용 사례 – 텍스트 사용 사례는 사용자가 생성형 AI를 사용하여 자연어 인터페이스를 경험할 수 있게 해줍니다. 이 사용 사례는 신규 또는 기존 애플리케이션에 통합될 수 있으며 배포 대시보드 또는 제공된 URL을 통해 독립적으로 배포될 수 있습니다.
-
배포 대시보드
-
텍스트 사용 사례
-
배포 대시보드
-
1단계
관리자가 배포 대시보드 사용자 인터페이스(UI)에 로그인합니다.2단계
Amazon CloudFront가 Amazon Simple Storage Service(S3) 버킷에서 호스팅되는 웹 UI를 제공합니다.3단계
AWS WAF가 공격으로부터 API를 보호합니다. 이 솔루션은 구성 가능한 사용자 정의 웹 보안 규칙과 조건에 따라 웹 요청을 허용 또는 차단하거나 웹 요청을 세는 웹 액세스 제어 목록(웹 ACL)이라는 일련의 규칙을 구성합니다.
4단계
웹 UI는 Amazon API Gateway를 사용하여 노출되는 REST API 세트를 활용합니다.
5단계
Amazon Cognito가 사용자를 인증하고 CloudFront 웹 UI와 API Gateway를 모두 지원합니다. Amazon DynamoDB 테이블에 승인된 사용자의 AWS Identity and Access Management(IAM) 정책이 저장됩니다.6단계
AWS Lambda가 REST 엔드포인트용 비즈니스 논리를 제공합니다. 이 Backing Lambda 함수는 AWS CloudFormation을 사용하여 사용 사례를 배포하는 데 필요한 리소스를 관리하고 생성합니다.7단계
DynamoDB에 배포 목록이 저장됩니다.8단계
관리자가 새 사용 사례를 생성하면 Backing Lambda 함수는 요청된 사용 사례의 CloudFormation 스택 생성 이벤트를 시작합니다.9단계
관리자가 배포 마법사에 제공하는 모든 LLM 구성 옵션이 DynamoDB에 저장됩니다. 배포에서는 이 DynamoDB 테이블을 사용하여 런타임에 LLM을 구성합니다.
10단계
이 솔루션은 Amazon CloudWatch를 통해 다양한 서비스에서 운영 지표를 수집하여 사용자가 솔루션의 성능과 운영 상태를 모니터링할 수 있는 사용자 지정 대시보드를 생성합니다.
-
텍스트 사용 사례
-
1단계
관리자가 배포 대시보드를 사용하여 사용 사례를 배포합니다. 비즈니스 사용자가 사용 사례 UI에 로그인합니다.
2단계
CloudFront가 S3 버킷에서 호스팅되는 웹 UI를 제공합니다.3단계
웹 UI가 API Gateway를 사용하여 빌드한 WebSocket 통합을 활용합니다. API Gateway는 인증 사용자가 속한 Amazon Cognito 그룹을 기반으로 적절한 IAM 정책을 반환하는 사용자 지정 Lambda Authorizer 함수를 기반으로 합니다. 정책은 DynamoDB에 저장됩니다.4단계
Amazon Cognito는 사용자를 인증하고 CloudFront 웹 UI와 API Gateway를 모두 지원합니다.
5단계
비즈니스 사용자로부터 들어오는 요청은 API Gateway에서 Amazon Simple Queue Service(Amazon SQS) 대기열로 전달된 다음 LangChain Orchestrator로 전달됩니다. LangChain Orchestrator는 비즈니스 사용자의 요청을 이행하는 데 필요한 비즈니스 논리를 제공하는 Lambda 함수 및 계층의 모음입니다.대기열을 통해 Lambda 통합에 대한 API Gateway의 비동기 작업을 수행할 수 있습니다. 대기열이 Lambda 함수에 연결 정보를 전달하고, Lambda 함수가 결과를 API Gateway WebSocket 연결에 직접 게시하여 장기 실행 추론 호출을 지원합니다.
6단계
LangChain Orchestrator는 DynamoDB를 사용하여 구성된 LLM 옵션과 필요한 세션 정보(예: 채팅 기록)를 가져옵니다.7단계
배포에 기술 자료가 구성된 경우 LangChain Orchestrator는 Amazon Kendra 또는 Amazon Bedrock용 기술 자료를 활용하여 검색 쿼리를 실행하여 문서 발췌본을 검색합니다.8단계
LangChain Orchestrator는 기술 자료의 채팅 기록, 쿼리, 컨텍스트를 사용하여 최종 프롬프트를 생성하고 Amazon Bedrock 또는 Amazon SageMaker에서 호스팅되는 LLM에 요청을 보냅니다.9단계
LLM에서 응답을 회신하면 LangChain Orchestrator에서 API Gateway WebSocket을 통해 응답을 다시 스트리밍합니다. 이를 통해 클라이언트 애플리케이션에서 응답을 사용할 수 있습니다.10단계
이 솔루션은 CloudWatch를 통해 다양한 서비스에서 운영 지표를 수집하여 사용자가 배포의 성능과 운영 상태를 모니터링할 수 있는 사용자 지정 대시보드를 생성합니다.
관련 콘텐츠
이 지침은 Amazon SageMaker JumpStart에서 제공하는 생성형 인공 지능(AI) 모델을 배포한 다음 AWS Cloud Development Kit(AWS CDK)를 사용하여 비동기식 SageMaker 엔드포인트를 손쉽게 생성하는 방법을 보여줍니다.
이 지침은 자연어 쿼리(NLQ)를 사용하여 관계형 데이터베이스에 직접 질문할 수 있는 애플리케이션을 구축하는 방법을 보여줍니다.
이 사례 연구에서는 방송사인 Megamedia가 어떻게 생성형 AI 기반 챗봇을 생성하여 AWS를 통해 중요한 공개 정보에 대한 액세스를 간소화했는지 보여줍니다.