Visão geral
O Generative AI Application Builder on AWS facilita o desenvolvimento, a rápida experimentação e a implantação de aplicações de inteligência artificial generativa (IA) sem exigir uma profunda experiência em IA. Esta solução da AWS acelera o desenvolvimento e simplifica a experimentação ao auxiliar você a ingerir dados e documentos específicos da sua empresa, avaliar e comparar o desempenho de grandes modelos de linguagem (LLMs), criar aplicações extensíveis com rapidez e implantá-las com uma arquitetura de nível empresarial.
A solução Generative AI Application Builder on AWS inclui integrações com o Amazon Bedrock e os LLMs inclusos, e com os LLMs implantados no Amazon SageMaker. Além disso, essa solução permite conexões com o modelo escolhido usando o LangChain ou o AWS Lambda. Comece com o assistente de implantação sem código para criar aplicações de IA generativa para pesquisa conversacional, chatbots com base em IA generativa, geração de texto e resumo de texto.
Benefícios
Essa solução permite que os usuários façam experimentos rapidamente, eliminando o trabalho pesado necessário para implantar várias instâncias com configurações diferentes e comparar os resultados e o desempenho. Experimente várias configurações de vários LLMs, engenharia de prompt, bases de conhecimento corporativas e outros parâmetros.
Com conectores predefinidos para uma variedade de LLMs, como modelos disponíveis por meio do Amazon Bedrock, essa solução oferece a flexibilidade de implantar o modelo de sua escolha, bem como os principais serviços de FM e da AWS de sua preferência.
Criada com os princípios de projeto do AWS Well-Architected, essa solução oferece segurança e escalabilidade em nível empresarial com alta disponibilidade e baixa latência, garantindo uma integração perfeita em suas aplicações com altos padrões de desempenho.
Estenda a funcionalidade dessa solução integrando seus projetos existentes ou conectando serviços adicionais da AWS nativamente. Como essa é uma aplicação de código aberto, você pode usar a camada de orquestração do LangChain incluída ou as funções do Lambda para se conectar a serviços de sua escolha.
Detalhes técnicos
Você pode implantar automaticamente essa arquitetura usando o guia de implementação e o modelo do AWS CloudFormation que o acompanha, que implanta duas arquiteturas separadas:
- Painel de implantação — O Painel de implantação é uma interface de usuário (UI) da web que serve como um console de gerenciamento para os usuários administradores visualizarem, gerenciarem e criarem seus casos de uso. Esse painel permite que os clientes experimentem, iterem e implantem aplicações de IA generativa rapidamente, usando várias configurações de LLMs e dados.
- Caso de uso de texto — O Caso de uso de texto permite que os usuários experimentem uma interface de linguagem natural usando IA generativa. Esse caso de uso pode ser integrado a aplicações novas ou existentes e pode ser implantado por meio do Painel de Implantação ou de forma independente por meio de um URL fornecido.
-
Painel de implantação
-
Caso de uso de texto
-
Painel de implantação
-
Etapa 1
Os usuários administradores fazem login na interface de usuário (UI) do Painel de implantação.Etapa 2
O Amazon CloudFront fornece a interface de usuário da Web, que está hospedada em um bucket do Amazon Simple Storage Service (Amazon S3).Etapa 3
O AWS WAF protege as APIs contra ataques. Essa solução configura um conjunto de regras, chamado de lista de controle de acesso da Web (ACL da Web) que permite, bloqueia ou conta solicitações da Web com base em regras e condições de segurança da Web configuráveis e definidas pelo usuário.
Etapa 4
A interface de usuário da Web utiliza um conjunto de APIs REST que são expostas usando o Amazon API Gateway.
Etapa 5
O Amazon Cognito autentica usuários e faz backup da interface de usuário da Web do CloudFront e do API Gateway. Uma tabela do Amazon DynamoDB armazena a política do AWS Identity and Access Management (IAM) de usuários autorizados.Etapa 6
O AWS Lambda fornece a lógica de negócios para os endpoints REST. Essa função do Lambda de apoio gerencia e cria os recursos necessários para realizar implantações de casos de uso usando o AWS CloudFormation.Etapa 7
O DynamoDB armazena a lista de implantações.Etapa 8
Quando um novo caso de uso é criado pelo usuário administrador, a função do Lambda de apoio inicia um evento de criação de pilha do CloudFormation para o caso de uso solicitado.Etapa 9
Todas as opções de configuração de LLMs fornecidas pelo usuário administrador no assistente de implantação são salvas no DynamoDB. A implantação usa essa tabela do DynamoDB para configurar o LLM de acordo com o runtime.
Etapa 10
Com o Amazon CloudWatch, essa solução coleta métricas operacionais de vários serviços para gerar painéis personalizados que permitem monitorar o desempenho e a integridade operacional da solução.
-
Caso de uso de texto
-
Etapa 1
Os usuários administradores implantam o caso de uso no Painel de implantação. Os usuários corporativos fazem login na interface de usuário do caso de uso.
Etapa 2
O CloudFront fornece a IU da Web hospedada em um bucket do S3.Etapa 3
A interface de usuário da Web utiliza uma integração do WebSocket desenvolvida com o uso do API Gateway. O API Gateway tem o suporte de uma função personalizada do Lambda Authorizer, que retorna a política do IAM apropriada com base no grupo do Amazon Cognito ao qual o usuário autenticador pertence. A política é armazenada no DynamoDB.Etapa 4
O Amazon Cognito autentica usuários e faz backup da interface de usuário da Web do CloudFront e do API Gateway.
Etapa 5
As solicitações recebidas do usuário corporativo são transferidas do API Gateway para uma fila do Amazon Simple Queue Service (Amazon SQS) e, então, para o Orquestrador do LangChain. O Orquestrador do LangChain é uma coleção de funções e camadas do Lambda que fornecem a lógica de negócios para atender a solicitações do usuário corporativo.A fila permite a operação assíncrona da integração do API Gateway com o Lambda. A fila transfere as informações de conexão para as funções do Lambda, que então publicarão os resultados diretamente na conexão WebSocket do API Gateway para oferecer suporte a chamadas de inferência de longa duração.
Etapa 6
O Orquestrador do LangChain usa o DynamoDB para obter as opções configuradas de LLMs e as informações de sessão necessárias (como o histórico de chats).Etapa 7
Se a implantação tiver uma base de conhecimento configurada, o Orquestrador do LangChain utilizará o Amazon Kendra ou o Knowledge Bases para Amazon Bedrock para executar uma consulta de pesquisa e recuperar trechos de documentos.Etapa 8
Ao usar o histórico de chat, a consulta e o contexto da base de conhecimento, o Orquestrador do LangChain cria o prompt final e envia a solicitação ao LLM hospedado no Amazon Bedrock ou no Amazon SageMaker.Etapa 9
Quando a resposta retorna do LLM, o Orquestrador do LangChain a transmite de volta por meio do WebSocket do API Gateway para que ela seja consumida pela aplicação do cliente.Etapa 10
Usando o CloudWatch, essa solução coleta métricas operacionais de vários serviços para gerar painéis personalizados que permitem monitorar o desempenho e a integridade operacional da implantação.
- Data de publicação
Conteúdo relacionado
A maneira mais fácil de criar e escalar aplicações de IA generativa com modelos de base.
Esta orientação demonstra como implantar um modelo de inteligência artificial (IA) generativa fornecido pelo Amazon SageMaker JumpStart para criar um endpoint assíncrono do SageMaker com a facilidade do AWS Cloud Development Kit (AWS CDK).
Esta orientação demonstra como criar uma aplicação que permite aos usuários fazer perguntas diretamente em bancos de dados relacionais usando consultas em linguagem natural (NLQ).
Aumente a produtividade, crie experiências diferenciadas e inove mais rapidamente com a AWS.
Esse estudo de caso demonstra como a empresa de transmissão Megamedia criou um chatbot com IA generativa para simplificar o acesso a informações públicas importantes usando a AWS.