Perguntas frequentes sobre o Amazon Bedrock

Geral

Abrir tudo

O Amazon Bedrock é um serviço totalmente gerenciado que oferece uma variedade de modelos de base (FMs) líderes do setor, além de um amplo conjunto de funcionalidades necessárias para o desenvolvimento de aplicações com tecnologia de IA generativa, simplificando o desenvolvimento com segurança, privacidade e uso responsável da IA. Com os recursos abrangentes do Amazon Bedrock, você pode experimentar uma variedade dos melhores FMs, personalizá-los de maneira privada com seus dados usando técnicas como ajuste fino e Retrieval-Augmented Generation (RAG) e criar agentes gerenciados que executam tarefas comerciais complexas, desde reservas de viagens e processamento de sinistros de seguros até a criação de campanhas publicitárias e gerenciamento de inventário, tudo sem escrever nenhum código. Como o Amazon Bedrock usa tecnologia sem servidor, você não precisa gerenciar nenhuma infraestrutura e pode integrar e implantar com segurança recursos de IA generativa em suas aplicações usando os serviços da AWS que já conhece.

Há cinco motivos para usar o Amazon Bedrock para criar aplicações de IA generativa.

  • Escolha dos FMs principais: o Amazon Bedrock oferece uma experiência de desenvolvimento fácil de usar para trabalhar com uma ampla gama de FMs de alta performance da Amazon e das principais empresas de IA, como AI21 Labs, Anthropic, Cohere, Meta, Mistral AI e Stability AI. Você pode experimentar rapidamente vários FMs na área de testes e usar uma única API para inferência, qualquer que seja o modelo escolhido. Assim, você tem a flexibilidade de usar FMs de diferentes fornecedores e ficar a par das versões mais recentes do modelo com o mínimo de alterações no código.
  • Fácil personalização do modelo com seus dados: personalize FMs de forma privada com seus próprios dados em uma interface visual sem precisar escrever código. Basta selecionar os conjuntos de dados de treinamento e validação armazenados no Amazon Simple Storage Service (Amazon S3) e, se necessário, ajustar os hiperparâmetros para obter o melhor desempenho possível do modelo.
  • Agentes totalmente gerenciados que invocam APIs dinamicamente para executar tarefas: crie agentes para executar tarefas comerciais complexas, desde reservar viagens e processar pedidos de seguro até criar campanhas publicitárias, preparar declarações de imposto e gerenciar inventários, chamando dinamicamente os sistemas e as APIs de sua empresa. Agentes totalmente gerenciados do Amazon Bedrock ampliam os recursos de raciocínio dos FMs para detalhar tarefas, criar um plano de orquestração e executá-lo.
  • Suporte nativo para RAG para ampliar o poder dos FMs com dados proprietários: com o Amazon Bedrock Knowledge Bases, você pode conectar com segurança os FMs às suas fontes de dados para aumentar a recuperação dentro do serviço gerenciado, ampliando os recursos já poderosos do FM e aprofundando o conhecimento do modelo sobre seu domínio e sua organização.
  • Certificações de segurança e conformidade de dados: o Amazon Bedrock oferece vários recursos para atender aos requisitos de segurança e privacidade. O Amazon Bedrock está no escopo de padrões de conformidade comuns, como o Service and Organization Control (SOC), a Organização Internacional para Padronização (ISO), é elegível para a Health Insurance Portability and Accountability Act (HIPAA), e os clientes podem usar o Amazon Bedrock em conformidade com o Regulamento Geral de Proteção de Dados (RGPD). O Amazon Bedrock tem a certificação CSA Security Trust Assurance and Risk (STAR) de nível 2, que valida o uso de práticas recomendadas e a postura de segurança das ofertas de nuvem AWS. Com o Amazon Bedrock, seu conteúdo não é usado para melhorar os modelos de base e não é compartilhado com outros provedores de modelos. Seus dados no Amazon Bedrock são sempre criptografados em trânsito e em repouso, e, se desejar, você pode usar suas próprias chaves para a criptografia. Você pode usar o AWS PrivateLink com o Amazon Bedrock para estabelecer uma conexão privada entre os FMs e a Amazon Virtual Private Cloud (Amazon VPC) sem expor o tráfego à Internet.

Com a experiência sem servidor do Amazon Bedrock, você pode começar rapidamente. Navegue até o Amazon Bedrock no Console de Gerenciamento da AWS e experimente os FMs no playground. Você também pode criar um agente e testá-lo no console. Depois de identificar seu caso de uso, você pode integrar facilmente os FMs às suas aplicações usando as ferramentas da AWS, sem precisar gerenciar nenhuma infraestrutura.
Link para o curso de introdução ao Amazon Bedrock
Link para o guia do usuário do Amazon Bedrock

O Amazon Bedrock trabalha com o AWS Lambda para invocar ações, o Amazon S3 para dados de treinamento e validação e o Amazon CloudWatch para monitorar métricas.

Você pode começar rapidamente com casos de uso:

  • Crie novos conteúdos originais, como histórias curtas, ensaios, publicações em redes sociais e textos de páginas da Web.
  • Pesquise, encontre e sintetize informações para responder a perguntas com base em um amplo conjunto de dados.
  • Crie imagens realistas e artísticas de vários objetos, ambientes e cenas a partir de instruções de linguagem.
  • Ajude os clientes a encontrar o que estão procurando com recomendações de produtos mais relevantes e contextuais do que a correspondência de palavras.
  • Obtenha um resumo do conteúdo textual, como artigos, postagens de blog, livros e documentos, para conhecer a essência sem precisar ler o conteúdo completo.
  • Forneça sugestão de produtos que correspondam às preferências do cliente e às compras anteriores

Explore mais casos de uso de IA generativa.

O Amazon Bedrock oferece um playground que permite testar vários FMs usando uma interface de bate-papo conversacional. Você pode fornecer um prompt e usar uma interface Web dentro do console para gerar um prompt e usar os modelos pré-treinados para gerar texto ou imagens ou, como alternativa, usar um modelo ajustado e adaptado para o seu caso de uso.

Para obter uma lista das regiões da AWS nas quais o Amazon Bedrock está disponível, consulte Endpoints e cotas do Amazon Bedrock, no Guia de referência do Amazon Bedrock.

É possível ajustar FMs no Amazon Bedrock com facilidade usando dados marcados ou ao usar o recurso de treinamento prévio contínuo para personalizar o modelo usando dados não marcados. Para começar, forneça o conjunto de dados de treinamento e validação, configure hiperparâmetros (epochs, tamanho do lote, taxa de aprendizado, etapas de aquecimento) e envie o trabalho. Em algumas horas, seu modelo ajustado pode ser acessado com a mesma API (InvokeModel).

Sim. Você pode treinar modelos selecionados e publicamente disponíveis e importá-los para o Amazon Bedrock usando o recurso de importação de modelos personalizados. No momento, esse recurso é compatível somente com as arquiteturas Llama 2/3, Mistral e Flan. Para obter informações adicionais, consulte a documentação.

Disponível em versão prévia pública, a inferência com latência otimizada no Amazon Bedrock oferece latência reduzida sem comprometer a precisão. Conforme verificado pela Anthropic, com inferência otimizada para latência no Amazon Bedrock, o Claude 3.5 Haiku é executado de maneira mais rápida na AWS do que em qualquer outro lugar. Além disso, com inferência otimizada para latência no Bedrock, o Llama 3.1 70B e 405B é executado de maneira mais rápida na AWS do que qualquer outro grande provedor de nuvem. Usando chips de IA criados especificamente, como o AWS Trainium2, e otimizações avançadas de software no Amazon Bedrock, os clientes podem acessar mais opções para otimizar sua inferência para um caso de uso específico.

Principais recursos:

  • Reduz os tempos de resposta das interações do modelo de base
  • Mantém a precisão enquanto melhora a velocidade
  • Não requer configuração adicional ou ajuste fino do modelo

Modelos compatíveis: Claude 3.5 Haiku da Anthropic e Llama 3.1 da Meta, modelos 405B e 70B

 

Disponibilidade: a região Leste dos EUA (Ohio) por meio de inferência entre regiões

 

Para começar a usá-la, acesse o console do Amazon Bedrock. Para mais informações, acesse a documentação do Amazon Bedrock.

O acesso à inferência otimizada para latência no Amazon Bedrock não requer nenhuma configuração adicional ou ajuste fino do modelo, permitindo o aprimoramento imediato dos aplicações de IA generativa existentes com tempos de resposta mais rápidos. Você pode ativar o parâmetro “Latência otimizada” ao invocar a API de inferência do Bedrock.

 

Para começar a usá-la, acesse o console do Amazon Bedrock. Para mais informações, acesse a documentação do Amazon Bedrock.

Atendentes

Abrir tudo

Os Amazon Bedrock Agents são recursos totalmente gerenciados que facilitam aos desenvolvedores a criação de aplicações baseadas em IA generativa que podem concluir tarefas complexas para uma ampla variedade de casos de uso e fornecer respostas atualizadas com base em fontes de conhecimento patenteadas. Em apenas algumas etapas curtas, os Amazon Bedrock Agents dividem automaticamente as tarefas e criam um plano de orquestração, sem qualquer codificação manual. O agente se conecta com segurança aos dados da empresa por meio de uma API, convertendo automaticamente os dados em um formato legível por máquina e aumentando a solicitação com informações relevantes para gerar a resposta mais precisa. Os agentes podem então chamar automaticamente as APIs para atender à solicitação do usuário. Por exemplo, uma empresa de manufatura pode querer desenvolver uma aplicação de IA generativa que automatize o rastreamento de níveis de estoque, dados de vendas e informações da cadeia de suprimentos e possa recomendar quantidades e pontos de reordenamento ideais para maximizar a eficiência. Como recursos totalmente gerenciados, os Amazon Bedrock Agents eliminam a necessidade indiferenciada de gerenciar a integração de sistemas e o provisionamento de infraestrutura, permitindo que os desenvolvedores usem a IA generativa em toda a organização.

Você pode conectar com segurança as FMs às fontes de dados da sua empresa usando o Amazon Bedrock Agents. Com uma base de conhecimento, você pode usar agentes para dar aos FMs do Amazon Bedrock acesso a dados adicionais que ajudam o modelo a gerar respostas mais relevantes, específicas ao contexto e precisas sem treinar continuamente esses FMs. Com base nas informações do usuário, os agentes identificam a base de conhecimento apropriada, recuperam as informações relevantes e adicionam as informações ao prompt de entrada, fornecendo ao modelo mais informações de contexto para gerar uma conclusão.

O Amazon Bedrock Agents pode ajudar você a aumentar a produtividade, melhorar sua experiência de atendimento ao cliente e automatizar fluxos de trabalho (como o processamento de sinistros de seguro).

Com os agentes, os desenvolvedores têm suporte contínuo para monitoramento, criptografia, concessão de permissões de usuário, versionamento e gerenciamento de invocação de API sem a necessidade de escrever um código personalizado. O Amazon Bedrock Agents automatiza a engenharia de prompts e a orquestração das tarefas solicitadas pelo usuário. Os desenvolvedores podem usar o modelo de prompt criado pelo agente como base para refiná-lo ainda mais e garantir uma experiência aprimorada para os usuários. Eles podem atualizar a entrada do usuário, o plano de orquestração e a resposta do FM. Com acesso ao modelo de prompt, os desenvolvedores têm melhor controle sobre a orquestração do agente.

Com agentes totalmente gerenciados, você não precisa se preocupar em provisionar ou gerenciar a infraestrutura e pode levar as aplicações à produção mais rapidamente.

Segurança

Abrir tudo

Qualquer conteúdo de cliente processado pelo Amazon Bedrock é criptografado e armazenado em repouso na região da AWS na qual você está usando o Amazon Bedrock.

Não. As entradas de usuários e as saídas de modelos não são compartilhadas com outros provedores de modelos.

O Amazon Bedrock oferece vários recursos para dar suporte a requisitos de segurança e privacidade. O Amazon Bedrock está em conformidade com padrões conhecidos de conformidade, como o FedRAMP Moderado, o Controle de Organizações de Serviço (SOC) e as Normas da Organização Internacional de Normalização (ISO). Além disso, ele é elegível para a Lei de Portabilidade e Responsabilidade de Seguros de Saúde (HIPAA), e os clientes podem usar o Bedrock em conformidade com o Regulamento Geral de Proteção de Dados (RGPD). O Amazon Bedrock está incluído no escopo dos relatórios SOC 1, 2 e 3, permitindo que os clientes obtenham insights sobre nossos controles de segurança. Demonstramos a conformidade por meio de auditorias abrangentes de terceiros sobre os controles da AWS. O Amazon Bedrock é um dos serviços da AWS em conformidade com as seguintes normas ISO: ISO 9001, ISO 27001, ISO 27017, ISO 27018, ISO 27701, ISO 22301 e ISO 20000. O Amazon Bedrock tem a certificação CSA Security Trust Assurance and Risk (STAR) de nível 2, que valida o uso de práticas recomendadas e a postura de segurança das ofertas de nuvem AWS. Com o Amazon Bedrock, seu conteúdo não é usado para melhorar os modelos de base e não é compartilhado com outros provedores de modelos. Você pode usar o AWS PrivateLink para estabelecer conectividade privada da VPC com o Amazon Bedrock, sem precisar expor os dados ao tráfego da Internet.

 

Não, a AWS e fornecedores terceirizados de modelos não usarão nenhuma entrada ou saída do Amazon Bedrock para treinar o Amazon Nova, o Amazon Titan ou qualquer modelo de terceiros.

O Amazon Bedrock é compatível com SDKs para serviços de runtime. Os SDKs do iOS e do Android, bem como Java, JS, Python, CLI, .Net, Ruby, PHP, Go e C++, oferecem suporte à entrada de texto e fala.

O streaming é compatível com todos os SDKs.

Cobrança e suporte

Abrir tudo

Consulte a página de preços do Amazon Bedrock para obter informações atualizadas sobre os preços.

Dependendo do contrato com o AWS Support, o Amazon Bedrock recebe suporte nos planos Developer Support, Business Support e Enterprise Support.

Você pode usar métricas do CloudWatch para rastrear tokens de entrada e saída.

Os clientes verão uma fatura do AWS Marketplace para determinados modelos com tecnologia sem servidor do Bedrock e do Bedrock Marketplace. Isso ocorre porque esses modelos são vendidos por fornecedores terceirizados como “Conteúdo de terceiros”, conforme descrito na seção 50.12 dos Termos de Serviço da AWS.

Personalização

Abrir tudo

Lançamos o pré-treinamento contínuo para os modelos Amazon Titan Text Express e Amazon Titan no Amazon Bedrock. O pré-treinamento contínuo permite que você continue o pré-treinamento em um modelo básico do Amazon Titan usando grandes quantidades de dados não rotulados. Esse tipo de treinamento adaptará o modelo de um corpus de domínio geral para um corpus de domínio mais específico, como médico, jurídico, financeiro, entre outros, mas preservando a maioria dos recursos do modelo de base do Amazon Titan. 

As empresas querem criar modelos para tarefas em um domínio específico. Os modelos de base talvez não sejam treinados no jargão técnico usado nesse domínio específico. Portanto, o ajuste direto do modelo de base exige grandes volumes de registros rotulados e um treinamento muito longo para obter resultados precisos. Para aliviar essa carga, o cliente pode, em vez disso, fornecer grandes volumes de dados não rotulados para um trabalho de pré-treinamento contínuo. Esse trabalho adaptará o modelo de base do Amazon Titan ao novo domínio. Assim, o cliente pode ajustar o modelo personalizado que acabou de ser pré-treinado para tarefas downstream usando registros de treinamento com um número significativamente menor de rótulos e um tempo de treinamento reduzido. 

O pré-treinamento contínuo e o ajuste fino do Amazon Bedrock têm requisitos muito semelhantes. Por esse motivo, estamos optando por criar APIs unificadas e compatíveis com o pré-treinamento contínuo e o ajuste fino. A unificação das APIs reduz a curva de aprendizado e ajudará os clientes a usar recursos padrão, como o Amazon EventBridge para rastrear trabalhos de longa duração, integração com o Amazon S3 para buscar dados de treinamento, tags de recursos e criptografia de modelos. 

O pré-treinamento contínuo ajuda você a adaptar os modelos do Amazon Titan aos dados específicos do domínio, preservando a funcionalidade básica dos modelos do Amazon Titan. Para criar um trabalho de pré-treinamento contínuo, navegue até o console do Amazon Bedrock e clique em “Modelos personalizados”. Navegue até a página do modelo personalizado que tem duas guias: Modelos e Trabalhos de treinamento. Ambas as guias fornecem um menu suspenso “Personalizar modelo” à direita. Selecione “Pré-treinamento contínuo” no menu suspenso para navegar até “Criar trabalho de pré-treinamento contínuo”. Você fornecerá o modelo de origem, o nome, a criptografia do modelo, os dados de entrada, os hiperparâmetros e os dados de saída. Além disso, você pode fornecer tags junto com detalhes sobre perfis do AWS Identity and Access Management (IAM) e políticas de recursos para o trabalho.

Amazon Titan

Abrir tudo

Exclusiva do Amazon Bedrock, a família de modelos do Amazon Titan incorpora os 25 anos de experiência da Amazon inovando com IA e machine learning em todos os setores da empresa. Os FMs do Amazon Titan oferecem aos clientes uma variedade de opções de modelos de imagem, multimodais e de texto de alta performance, por meio de uma API totalmente gerenciada. Os modelos do Amazon Titan são criados pela AWS e pré-treinados em grandes conjuntos de dados, o que os torna avançados e prontos para uso geral, criados para dar suporte a uma variedade de casos de uso, além de apoiar o uso responsável da IA. Use-os como estão ou personalize-os de forma privada com seus próprios dados. Saiba mais sobre o Amazon Titan.

Para saber mais sobre os dados processados ​​para desenvolver e treinar modelos de base do Amazon Titan, acesse a página Amazon Titan Model Training and Privacy.

Knowledge Bases/RAG

Abrir tudo

Você pode ingerir conteúdo de várias fontes, incluindo a web, Amazon Simple Storage Service (Amazon S3), o Confluence (versão prévia), o Salesforce (versão prévia) e o SharePoint (versão prévia). Você também pode ingerir dados de streaming ou dados de fontes não compatíveis de forma programática. Você também pode se conectar às suas fontes de dados estruturadas, como o data warehouse do Redshift e o Catálogo de Dados do AWS Glue.

O Amazon Bedrock Knowledge Bases fornece uma linguagem natural gerenciada para SQL para converter a linguagem natural em consultas SQL acionáveis e recuperar dados, permitindo que você crie aplicações usando dados dessas fontes.

Sim, o gerenciamento do contexto da sessão é integrado, permitindo que suas aplicações mantenham o contexto em várias interações, o que é essencial para suportar conversas em vários turnos.

Sim, todas as informações recuperadas incluem citações, melhorando a transparência e minimizando o risco de alucinações nas respostas geradas.

O Amazon Bedrock Knowledge Bases oferece suporte ao processamento de dados multimodal, permitindo que os desenvolvedores criem aplicações de IA generativa que analisam dados visuais e de texto, incluindo imagens, gráficos, diagramas e tabelas. As respostas do modelo podem aproveitar insights de elementos visuais, além do texto, fornecendo respostas mais precisas e contextualmente relevantes. Além disso, a atribuição de fontes para respostas inclui elementos visuais, aumentando a transparência e a confiança nas respostas.

O Amazon Bedrock Knowledge Bases podem processar documentos visualmente ricos em formato PDF, que podem conter imagens, tabelas, gráficos e diagramas. Para dados somente de imagem, o Bedrock Knowledge Bases oferece suporte a formatos de imagem padrão, como JPEG e PNG, permitindo recursos de pesquisa nos quais os usuários podem recuperar imagens relevantes com base em consultas baseadas em texto.

Os clientes têm três opções de análise para o Bedrock Knowledge Bases. Para processamento somente de texto, o analisador Bedrock padrão integrado está disponível sem custo adicional, ideal para casos em que o processamento multimodal de dados não é necessário. Os modelos do Amazon Bedrock Data Automation (BDA) ou de base podem ser usados para analisar dados multimodais. Para mais informações, consulte a documentação do produto

O Amazon Bedrock Knowledge Bases lida com várias complexidades do fluxo de trabalho, como comparação de conteúdo, tratamento de falhas, controle de throughput e criptografia, garantindo que seus dados sejam processados e gerenciados com segurança de acordo com os rigorosos padrões de segurança da AWS.

Avaliação do modelo

Abrir tudo

A avaliação de modelo no Amazon Bedrock permite avaliar, comparar e selecionar os melhores FMs para seu caso de uso em apenas algumas etapas curtas. O Amazon Bedrock oferece a opção entre avaliação automática e avaliação humana. Você pode usar a avaliação automática com métricas predefinidas, como precisão, robustez e toxicidade. Você pode usar fluxos de trabalho de avaliação humana para métricas subjetivas ou personalizadas, como simpatia, estilo e alinhamento com o tom de voz da marca. Para a avaliação humana, é possível aproveitar seus próprios funcionários ou uma equipe gerenciada pela AWS como revisores. A avaliação do modelo no Amazon Bedrock fornece conjuntos de dados selecionados integrados, ou você pode trazer seus próprios conjuntos de dados.

Você pode analisar uma variedade de métricas predefinidas, como precisão, robustez e toxicidade, usando avaliações automáticas. Também é possível usar fluxos de trabalho de avaliação humana para métricas subjetivas ou personalizadas, como simpatia, relevância, estilo e alinhamento com o tom de voz da marca.

As avaliações automáticas permitem que você reduza rapidamente a lista de FMs disponíveis em relação aos critérios padrão (como precisão, toxicidade e robustez). As avaliações humanas são frequentemente usadas para avaliar critérios mais sutis ou subjetivos que exigem julgamento humano e nos casos para os quais talvez não existam avaliações automáticas (como tom de voz da marca, intenção criativa, simpatia).

Você pode avaliar rapidamente os modelos do Amazon Bedrock para métricas como precisão, robustez e toxicidade, usando conjuntos de dados integrados selecionados ou trazendo conjuntos de dados de prompts próprios. Depois que os conjuntos de dados de prompts são enviados aos modelos do Amazon Bedrock para inferência, as respostas do modelo são pontuadas com algoritmos de avaliação para cada dimensão. O mecanismo de back-end agrega pontuações individuais de resposta rápida em pontuações resumidas e as apresenta por meio de relatórios visuais fáceis de entender.

O Amazon Bedrock permite que você configure fluxos de trabalho de revisão humana em algumas etapas curtas e aproveite os funcionários internos ou use uma equipe especializada gerenciada pela AWS para avaliar modelos. Por meio da interface intuitiva do Amazon Bedrock, as pessoas podem revisar e dar feedback sobre as respostas do modelo clicando nos polegares para cima ou para baixo, avaliando em uma escala de 1 a 5, escolhendo a melhor das várias respostas ou classificando os prompts. Por exemplo, um membro da equipe pode ver como dois modelos respondem ao mesmo prompt e, em seguida, ser solicitado a selecionar o modelo que mostra resultados mais precisos, relevantes ou estilísticos. É possível especificar os critérios de avaliação que são mais importantes para você personalizando as instruções e os botões que aparecerão na interface do usuário de avaliação da equipe. Você também pode fornecer instruções detalhadas com exemplos e o objetivo geral da avaliação do modelo, para que os usuários possam alinhar o trabalho de maneira adequada. Esse método é útil para avaliar critérios subjetivos que exigem julgamento humano ou conhecimentos mais diferenciados no assunto e que não podem ser facilmente julgados por avaliações automáticas.

IA responsável

Abrir tudo

O Amazon Bedrock Guardrails ajuda você a implementar salvaguardas para suas aplicações de IA generativa com base nos seus casos de uso e políticas de IA responsável. O Guardrails ajuda a controlar a interação entre usuários e (FMs) filtrando conteúdo indesejável e prejudicial e, em breve, ocultará informações de identificação pessoal (PII), aprimorando a segurança e a privacidade do conteúdo nas aplicações de IA generativa. Você pode criar várias barreiras de proteção com diferentes configurações personalizadas para casos de uso específicos. Além disso, com a barreira de proteção, é possível monitorar e analisar continuamente entradas de usuários e respostas de FMs que possam violar políticas definidas pelo cliente.

O Guardrails auxilia você a definir um conjunto de políticas para ajudar a proteger as aplicações de IA generativa. Em uma barreira de proteção, é possível configurar as políticas a seguir.

  • Verificações de fundamentação contextual: ajudam a detectar e filtrar alucinações se as respostas não estiverem fundamentadas (por exemplo, informações factualmente imprecisas ou novas) nas informações de origem e forem irrelevantes para a consulta ou instrução do usuário.
  • Verificações de raciocínio automatizado: ajudam a detectar imprecisões factuais no conteúdo gerado, sugerem correções e explicam por que as respostas são precisas comparando uma representação matemática estruturada do conhecimento chamada de Política de Raciocínio Automatizado.
  • Filtros de conteúdo: ajudam a configurar limites para detectar e filtrar conteúdo de texto nocivo em categorias como ódio, insultos, sexo, violência, má conduta e ataques de prompts. Além disso, os filtros de conteúdo podem detectar e filtrar conteúdo de imagem prejudicial nessas categorias, ajudando a criar aplicações multimodais seguras.
  • Tópicos negados: ajudam a definir um conjunto de tópicos que não são desejáveis no contexto da aplicação. Por exemplo, um assistente de serviços bancários on-line pode ser projetado para evitar consultorias de investimento.
  • Filtros de palavras: ajudam você a definir um conjunto de palavras para bloquear nas entradas de usuário e nas respostas geradas pelo FM.
  • Filtro de informações confidenciais: ajuda você a reagir a informações confidenciais, como um conjunto de PII que pode ser editado em respostas geradas por FM. Com base no caso de uso, o Guardrails também pode ajudá-lo a bloquear a entrada de um usuário se ela contiver PII.

O Amazon Bedrock Guardrails funcionam com uma ampla variedade de modelos, incluindo FMs compatíveis com o Amazon Bedrock, modelos aperfeiçoados e modelos auto-hospedados fora do Amazon Bedrock. As entradas do usuário e as saídas do modelo podem ser avaliadas de forma independente para modelos de terceiros e auto-hospedados usando a API do ApplyGuardrail. O Amazon Bedrock Guardrails também pode ser integrado ao Amazon Bedrock Agents e ao Amazon Bedrock Knowledge Bases para criar aplicações de IA generativa alinhadas às políticas responsáveis de IA

Existem cinco políticas de barreira de proteção, cada uma com diferentes proteções disponíveis para uso

  • Filtros de conteúdo: existem seis categorias disponíveis para uso, nomeadamente, disseminação de ódio, insultos, conteúdo sexual, violência, comportamento impróprio (incluindo atividades criminosas) e ataques de prompt (jailbreak e injeção de prompt). Cada categoria pode ter limites de filtragem ainda mais personalizados, oferecendo opções de baixa, média ou alta agressividade para conteúdo de texto e de imagem.
  • Tópico negado: são tópicos personalizados que o cliente pode definir usando descrições simples em linguagem natural
  • Filtro de informações confidenciais: inclui mais de 30 PIIs disponíveis para uso. Esse filtro pode ser ainda mais personalizado ao adicionar as informações confidenciais do cliente.
  • Filtros de palavras: inclui filtragem de palavrões disponível para uso e pode ser ajustado de forma adicional com palavras personalizadas.
  • As verificações de fundamento contextual: podem ajudar a detectar alucinações em aplicações de conversas, resumos e RAG, em que as informações de origem podem ser usadas como referência para validar a resposta do modelo.

Existem cinco políticas de barreira de proteção, cada uma com diferentes proteções disponíveis para uso

  • Filtros de conteúdo: existem seis categorias disponíveis para uso, nomeadamente, disseminação de ódio, insultos, conteúdo sexual, violência, comportamento impróprio (incluindo atividades criminosas) e ataques de prompt (jailbreak e injeção de prompt). Cada categoria pode ter limites de filtragem ainda mais personalizados, oferecendo opções de baixa, média ou alta agressividade.
  • Tópico negado: são tópicos personalizados que o cliente pode definir usando descrições simples em linguagem natural
  • Filtro de informações confidenciais: inclui mais de 30 PIIs disponíveis para uso. Esse filtro pode ser ainda mais personalizado ao adicionar as informações confidenciais do cliente.
  • Filtros de palavras: inclui filtragem de palavrões disponível para uso e pode ser ajustado de forma adicional com palavras personalizadas.
  • As verificações de fundamento contextual: podem ajudar a detectar alucinações em aplicações de conversas, resumos e RAG, em que as informações de origem podem ser usadas como referência para validar a resposta do modelo.

O modelo de base tem salvaguardas nativas e são as proteções padrão associadas a cada modelo. Essas proteções nativas NÃO fazem parte do Amazon Bedrock Guardrails. O Amazon Bedrock Guardrails é uma camada adicional de proteções personalizadas que podem ser aplicadas opcionalmente pelo cliente com base nos requisitos de suas aplicações e em políticas de IA responsável.


Como parte do Amazon Bedrock Guardrails, o SSN e a detecção de números de telefone fazem parte das mais de 30 PIIs disponíveis no mercado. Consulte a lista completa aqui.

Há um custo separado para usar o Amazon Bedrock Guardrails. Esse custo é aplicável tanto para a entrada quanto para a saída. Os preços estão disponíveis ao final da página disponibilizada aqui. Os preços do suporte de imagens com filtros de conteúdo (atualmente em versão prévia pública) serão anunciados durante a disponibilidade geral (GA).

Há um custo separado para usar o Amazon Bedrock Guardrails. Esse custo é aplicável tanto para a entrada quanto para a saída. Os preços estão disponíveis ao final da página disponibilizada aqui.

Sim, as APIs do Amazon Bedrock Guardrail ajudam os clientes a executar testes automatizados. O uso do “criador de casos de teste” pode ser recomendável antes da implantação de barreiras de proteção na produção. Ainda não existe um criador de casos de teste nativo. Para o monitoramento contínuo do tráfego de produção, as barreiras de proteção ajudam a fornecer registros detalhados de todas as violações para cada entrada e saída. Dessa forma, os clientes podem monitorar, de maneira granular, cada entrada e cada saída da aplicação com tecnologia de IA generativa. Esses logs podem ser armazenados no CloudWatch ou no S3 e podem ser usados ​​para criar painéis personalizados com base nos requisitos dos clientes.

Usando uma política de raciocínio automatizado, as verificações de raciocínio automatizado podem apontar afirmações precisas e imprecisões factuais no conteúdo. Para declarações precisas e imprecisas, a verificação de raciocínio automatizado fornece explicações lógicas e verificáveis para sua saída. A verificação do raciocínio automatizado exige o envolvimento inicial de um especialista do domínio para criar uma política e só oferece suporte a conteúdo que define regras. Por outro lado, as verificações contextuais de fundamentação no Bedrock Guardrails usam técnicas de machine learning para garantir que o conteúdo gerado acompanhe de perto os documentos que foram fornecidos como entrada de uma base de conhecimento, sem exigir nenhum trabalho inicial adicional. Tanto as verificações de raciocínio automatizado quanto a fundamentação de contexto fornecem seus comentários na saída da API do Guardrail. Você pode usar o feedback para atualizar o conteúdo gerado.

Marketplace

Abrir tudo

O Amazon Bedrock Marketplace oferece aos clientes mais de 100 modelos populares, emergentes ou especializados, além dos FMs sem servidor do Amazon Bedrock, para que os clientes possam criar e otimizar facilmente suas aplicações de IA generativa. No console Amazon Bedrock, os clientes poderão descobrir um amplo catálogo de FMs oferecidos por vários fornecedores. Em seguida, você pode implantar esses modelos em endpoints totalmente gerenciados, onde você pode escolher o número desejado de instâncias e tipos de instância. Depois que os modelos são implantados, eles podem ser acessados por meio da API Invoke do Amazon Bedrock. Para modelos de texto para texto ajustados por chat, os clientes podem usar nossa nova API Converse, uma API unificada que abstrai as diferenças de FMs e permite a troca de modelos com uma única alteração de parâmetro. Quando aplicável, os modelos podem ser usados com o Amazon Bedrock Playground, Agents, Knowledge Bases, Prompt Management, Prompt Flows, Guardrails e Model Evaluation.

Você deve usar o Amazon Bedrock Marketplace para se beneficiar dos modelos avançados que estão surgindo rapidamente à medida que o setor de IA generativa continua inovando. Você pode acessar e implantar rapidamente modelos populares, emergentes e especializados, personalizados para seus requisitos exclusivos, que podem acelerar o tempo de colocação no mercado, melhorar a precisão ou reduzir o custo de seus fluxos de trabalho de IA generativa. Você pode acessar os modelos por meio das APIs unificadas do Bedrock e, se eles forem compatíveis com a API Converse do Bedrock, usá-los de forma nativa com as ferramentas do Bedrock, como Agents, Knowledge Bases e Guardrails. Você pode conectar facilmente o Amazon Bedrock Marketplace aos modelos sem servidor do Amazon Bedrock, tudo em um único lugar.
 

Basta navegar até a página Catálogo de modelos do Amazon Bedrock no console do Bedrock, onde você pode pesquisar listas de modelos do Amazon Bedrock Marketplace junto com os modelos do Amazon Bedrock sem servidor. Depois de selecionar o modelo do Amazon Bedrock Marketplace que você deseja usar, você pode assinar o modelo por meio da página de detalhes do modelo, aceitando o EULA e os preços definidos pelo fornecedor. Depois que a assinatura for concluída, o que normalmente leva alguns minutos, você pode implantar o modelo em um endpoint totalmente gerenciado do SageMaker clicando em Implantar na página de detalhes do modelo ou usando APIs. Na etapa de implantação, você pode selecionar o número desejado de instâncias e tipos de instância para atender à sua workload. Depois que o endpoint estiver configurado, o que normalmente leva de 10 a 15 minutos, você pode começar a fazer chamadas de inferência para o endpoint e usar o modelo nas ferramentas avançadas do Bedrock, desde que o modelo seja compatível com a API Converse da Bedrock.

Modelos com arquiteturas com suporte pela importação de modelos personalizados (Mistral, Mixtral, Flan e Llama2/3/3.1/3.2) podem ser ajustados no SageMaker e disponibilizados no Amazon Bedrock por meio da importação de modelos personalizada. Os modelos que não são têm suporte pela importação de modelos personalizada ainda podem ser ajustados no SageMaker. No entanto, a versão ajustada desses modelos não pode ser usada no Amazon Bedrock.

Data Automation

Abrir tudo

O que é Bedrock Data Automation? O Amazon Bedrock Data Automation é um recurso do Bedrock desenvolvido pela GenAI que simplifica o desenvolvimento de aplicações de IA generativa e automatiza fluxos de trabalho envolvendo documentos, imagens, áudio e vídeos. Ao aproveitar o Bedrock Data Automation, os desenvolvedores podem reduzir o tempo e o esforço de desenvolvimento, facilitando a criação de processamento inteligente de documentos, análise de mídia e outras soluções de automação multimodais centradas em dados. O Bedrock Data Automation oferece a melhor precisão do setor a um custo menor do que soluções alternativas, além de atributos como base visual com pontuações de confiança para explicabilidade e mitigação integrada de alucinações. Isso garante insights confiáveis e precisos de fontes de dados multimodais não estruturadas. Os clientes podem personalizar de forma fácil a saída do Bedrock Data Automation para gerar insights específicos em formatos consistentes exigidos por seus sistemas e aplicativos. Os desenvolvedores começam a usar o Bedrock Data Automation no console do Amazon Bedrock, onde podem configurar e personalizar a saída usando seus dados de amostra. Em seguida, eles podem integrar a API unificada de inferência multimodal do Bedrock Data Automation em suas aplicações para processar seu conteúdo não estruturado em escala de produção com alta precisão e consistência. O Bedrock Data Automation também está integrado ao Bedrock Knowledge Bases, facilitando aos desenvolvedores a geração de informações significativas a partir de seu conteúdo multimodal não estruturado para fornecer respostas mais relevantes para a geração aumentada via recuperação (RAG).

O Bedrock Data Automation facilita a transformação de dados corporativos não estruturados em formatos de saída específicos da aplicação que podem ser utilizados por aplicações de IA generativa e fluxos de trabalho de ETL. Os clientes não precisam mais gastar tempo e esforço gerenciando e orquestrando vários modelos, engenharias de prompts, implementando barreiras de proteção ou juntando saídas para alinhá-las aos requisitos de refino e distribuição do sistema. O Bedrock Data Automation oferece processamento altamente preciso, consistente e econômico de dados não estruturados. O Bedrock Data Automation foi desenvolvido com a IA responsável em mente, fornecendo aos clientes os principais atributos, como fundamentação visual e pontuações de confiança, que facilitam a integração do Bedrock Data Automation nos fluxos de trabalho corporativos.

Os recursos do Bedrock Data Automation estão disponíveis por meio de uma API totalmente gerenciada que os clientes podem integrar facilmente em suas aplicações. Os clientes não precisam se preocupar em escalar os recursos computacionais subjacentes, selecionar e orquestrar modelos ou gerenciar prompts para FMs.

Um esquema é um atributo que os clientes usam para especificar seus requisitos de saída usando linguagem natural ou um editor de esquemas. Ele inclui uma lista de campos que eles desejam extrair, um formato de dados para cada campo e instruções em linguagem natural para cada campo. Por exemplo, os desenvolvedores podem digitar “Crie um esquema para faturas com os seguintes campos: imposto, data de vencimento, data de recebimento” ou “Confirme se o total da fatura corresponde à soma dos itens de linha”. Eles fazem referência aos esquemas como parte das chamadas de API de inferência para que o sistema retorne as informações no formato descrito no esquema.

Documentos

O Bedrock Data Automation é compatível tanto com a saída padrão quanto com a saída personalizada para documentos.

  • A saída padrão fornecerá extração de texto de documentos e saída generativa, como resumo do documento e legendas para tabelas/figuras/diagramas. A saída é retornada em ordem de leitura e, opcionalmente, pode ser agrupada por elemento de layout, que incluirá cabeçalhos/rodapés/títulos/tabelas/figuras/diagramas. A saída padrão será usada para integração do BDA com o Bedrock Knowledge Bases.
  • A saída personalizada aproveita os esquemas, que especificam os requisitos de saída usando linguagem natural ou um editor de esquema. Os esquemas incluem uma lista de campos a serem extraídos e um formato de dados para cada campo.

O Bedrock Data Automation é compatível com PDF, PNG, JPG, TIFF, no máximo 1500 páginas e um tamanho máximo de arquivo de 500 MB por solicitação de API. Por padrão, o BDA oferece suporte a 50 trabalhos simultâneos e 10 transações por segundo por cliente.

Imagens

O Bedrock Data Automation suporta tanto a saída padrão quanto a saída personalizada para imagens.

  • A saída padrão fornecerá resumo, conteúdo explícito detectado, texto detectado, detecção de logotipo e taxonomia do anúncio: IAB para imagens. A saída padrão será usada para integração do BDA com o Bedrock Knowledge Bases.
  • A saída personalizada aproveita os esquemas, que especificam os requisitos de saída usando linguagem natural ou um editor de esquema. Os esquemas incluem uma lista de campos a serem extraídos e um formato de dados para cada campo.

O Bedrock Data Automation é compatível com JPG, PNG, resolução máxima de 4K e tamanho máximo de arquivo de 5 MB por solicitação de API. Por padrão, o BDA oferece suporte a uma simultaneidade máxima de 20 imagens a 10 transações por segundo (TPS) por cliente.

Vídeos

O Bedrock Data Automation é compatível com ambas as saídas padrão para vídeos.

  • A saída padrão fornecerá resumo completo do vídeo, segmentação do capítulo, resumo do capítulo, transcrição completa do áudio, identificação do locutor, conteúdo explícito detectado, texto detectado, detecção de logotipo e taxonomia do Interactive Advertising Bureau (IAB) para vídeos. O resumo completo do vídeo é otimizado para conteúdo com diálogos descritivos, como visões gerais de produtos, treinamentos, noticiários e documentários.

O Bedrock Data Automation é compatível com MOV e MKV com H.264,VP8, VP9 duração máxima de vídeo de 4 horas e tamanho máximo de arquivo de 2 GB por solicitação de API. Por padrão, o BDA oferece suporte a uma simultaneidade máxima de 20 vídeos a 10 transações por segundo (TPS) por cliente.

Áudio

O Bedrock Data Automation é compatível com ambas as saídas padrão para áudio.

  • A saída padrão fornecerá um resumo, incluindo resumo de capítulos, transcrição completa e moderação de conteúdo explícito detectado para arquivos de áudio.

O Bedrock Data Automation é compatível com FLAC, M4A, MP3, MP4, Ogg, WebM, WAV, uma duração máxima de áudio de 4 horas e um tamanho máximo de arquivo de 2 GB por solicitação de API.

O Amazon Bedrock Data Automation geralmente está disponível nas Regiões da AWS Oeste dos EUA (Oregon) e Leste dos EUA (Norte da Virgínia).

Atualmente, o Amazon Bedrock Data Automation oferece suporte ao inglês. O suporte a outros idiomas estará disponível em breve em 2025.

Amazon Bedrock no Estúdio Unificado SageMaker

Abrir tudo

O Amazon Bedrock pode ser acessado por meio do Console de Gerenciamento da AWS, das APIs ou do Estúdio Unificado Amazon SageMaker. No Estúdio Unificado Amazon SageMaker, os usuários podem criar e iterar rapidamente em aplicações de IA generativa usando modelos de base (FMs) de alta performance. Por meio de uma interface intuitiva, você pode experimentar esses modelos, colaborar em projetos e agilizar o acesso a várias ferramentas e recursos do Bedrock a fim de criar aplicações de IA generativa rapidamente.

Para acessar os recursos do Amazon Bedrock no Estúdio Unificado Amazon SageMaker, os desenvolvedores e seus administradores precisarão seguir estas etapas:

  1. Crie um novo domínio no Amazon SageMaker Unified Studio.
  2. Ative o perfil do projeto de desenvolvimento de aplicações de IA generativa.
  3. Acesse o Amazon Bedrock por meio das seções Playground de IA generativa (Descobrir) e Desenvolvimento de aplicativos de IA generativa (Criar), usando as credenciais de autenticação única (SSO) da empresa no Estúdio Unificado Amazon SageMaker.

Embora o Amazon Bedrock possa ser acessado por meio do Console de Gerenciamento da AWS, das APIs ou do Estúdio Unificado Amazon SageMaker, seus recursos no Estúdio Unificado SageMaker se baseiam no Amazon Bedrock Studio original (que não está mais disponível) com várias melhorias importantes. Quando acessado por meio do Estúdio Unificado Amazon SageMaker, ele fornece acesso a modelos avançados de IA de empresas líderes, ferramentas para criar e testar solicitações de IA e integração perfeita com as bases de conhecimento do Amazon Bedrock, Amazon Bedrock Guardrails, Amazon Bedrock Flows e Amazon Bedrock Agents. As equipes podem colaborar em um espaço de trabalho compartilhado para criar aplicações de IA personalizadas de acordo com suas necessidades.

Os novos atributos incluem um hub de modelos para comparação de modelos de IA lado a lado, um playground expandido que oferece suporte a interações de chat, imagem e vídeo e a criação aprimorada do Knowledge Base com crawling da web. Ele introduz a criação de agentes para aplicações de chat mais complexos e simplifica o compartilhamento de aplicativos e prompts de IA nas organizações. Ele também oferece acesso ao código do aplicativo subjacente e a capacidade de exportar aplicativos de chat como modelos do CloudFormation. Ao gerenciar os detalhes da infraestrutura da AWS, ele permite que usuários de vários níveis de habilidade criem aplicações de IA com mais eficiência, tornando-a uma ferramenta mais versátil e poderosa do que sua antecessora.

O Amazon Bedrock IDE foi renomeado para representar melhor a principal capacidade do Amazon Bedrock de ser acessado por meio do ambiente governado do Estúdio Unificado Amazon SageMaker.

Ao acessar a interface do Amazon Bedrock por meio do Estúdio Unificado Amazon SageMaker, as equipes se beneficiam de um ambiente governado que permite a colaboração. As equipes podem criar projetos, convidar colegas e criar juntos aplicações de IA generativa. Elas podem receber feedback rápido sobre seus protótipos e compartilhar as aplicações com qualquer pessoa no Estúdio Unificado SageMaker ou com usuários específicos no domínio. Controles de acesso e atributos de governança robustos permitem que somente membros autorizados acessem recursos do projeto, como dados ou aplicações de IA generativa, apoiando a privacidade e a conformidade dos dados e, assim, promovendo a colaboração e o compartilhamento interfuncionais seguros. Além disso, aplicações de IA generativa podem ser compartilhadas de um construtor para usuários específicos no domínio do Estúdio Unificado SageMaker ou com indivíduos específicos, permitindo direitos de acesso, controles e governança adequados desses ativos.

Embora o Amazon Bedrock possa ser acessado por meio do Console de Gerenciamento da AWS, das APIs ou do Estúdio Unificado Amazon SageMaker, essa integração elimina as barreiras entre dados, ferramentas e desenvolvedores no processo de desenvolvimento de IA generativa. As equipes obtêm uma experiência de desenvolvimento unificada acessando ambientes e ferramentas de analytics familiares do JupyterLab e, ao mesmo tempo, incorporando perfeitamente os recursos robustos de IA generativa do Amazon Bedrock, tudo no mesmo espaço de trabalho.

O ambiente unificado permite uma colaboração perfeita entre desenvolvedores de vários níveis de habilidade ao longo do ciclo de vida do desenvolvimento, desde a preparação de dados até o desenvolvimento de modelos e a criação de aplicações de IA generativa. As equipes podem acessar ferramentas integradas para criação de base de conhecimento, configuração de barreiras de proteção e desenvolvimento de aplicações de IA generativa de alto desempenho, tudo dentro de uma estrutura segura e governada.

No Amazon SageMaker Unified Studio, os desenvolvedores podem alternar facilmente entre diferentes ferramentas com base em suas necessidades, combinando análises, machine learning e recursos de IA generativa em um único espaço de trabalho. Essa abordagem consolidada reduz a complexidade do desenvolvimento e acelera o tempo de geração de valor para projetos de IA generativa. Ao trazer o Amazon Bedrock para o Estúdio Unificado Amazon SageMaker, a AWS reduz as barreiras de entrada para o desenvolvimento de IA generativa e, ao mesmo tempo, mantém a segurança e a governança de nível empresarial, permitindo que as organizações inovem de forma mais rápida e eficaz com a IA generativa.

Os recursos do Amazon Bedrock no Estúdio Unificado Amazon SageMaker são ideais para equipes corporativas que precisam de um ambiente governado para criar e implantar de forma colaborativa aplicações de IA generativa. Por meio do Estúdio Unificado Amazon SageMaker, as equipes podem acessar:
 

  • O Playground de IA generativa na seção Descobrir permite que as equipes experimentem modelos de base (FMs), testem diferentes modelos e configurações, comparem os resultados do modelo e colaborem em prompts e aplicações. Esse ambiente fornece uma maneira perfeita para as equipes avaliarem e entenderem os recursos de diferentes modelos antes de implementá-los em suas aplicações.
     
  • A seção Desenvolvimento de aplicações de IA generativa na seção Criar fornece às equipes as ferramentas necessárias para criar aplicações de IA generativa prontas para produção. As equipes podem criar e gerenciar bases de conhecimento, implementar barreiras de proteção para IA responsável, desenvolver agentes e fluxos e colaborar com segurança, mantendo os controles de governança e conformidade. Esse ambiente é particularmente valioso para organizações que exigem colaboração segura e acesso contínuo à gama completa de recursos do Amazon Bedrock, mantendo os padrões corporativos de segurança e conformidade.

Agora, os recursos do Amazon Bedrock estão geralmente disponíveis no Estúdio Unificado Amazon SageMaker, oferecendo um ambiente colaborativo controlado que capacita os desenvolvedores a criar e personalizar rapidamente aplicações de IA generativa. Essa interface intuitiva atende a desenvolvedores de todos os níveis de habilidade, fornecendo acesso fácil aos modelos de base (FMs) de alta performance do Amazon Bedrock e às ferramentas avançadas de personalização para o desenvolvimento colaborativo de aplicações de IA generativa adaptadas.

No Estúdio Unificado Amazon SageMaker, o Amazon Bedrock se integra perfeitamente aos recursos de análise, machine learning (ML) e inteligência artificial generativa do Amazon SageMaker. As organizações podem passar do conceito à produção mais rapidamente criando protótipos e experimentando modelos de base no Amazon Bedrock e, em seguida, migrar facilmente para editores de código ou cadernos JupyterLab para integrar esses recursos em aplicações e fluxos de trabalho mais amplos. Esse espaço de trabalho consolidado simplifica a complexidade, permitindo uma prototipagem, iteração e implantação mais rápidas de aplicações de IA generativa responsável e prontas para produção que se alinham aos requisitos comerciais específicos.

O Amazon Bedrock no Estúdio Unificado Amazon SageMaker está sujeito aos limites e cotas de conta definidos para a plataforma e os recursos subjacentes do Amazon Bedrock, como modelos de base (FMs), bases de conhecimento, agentes, fluxos e barreiras de proteção.

O acesso do Amazon Bedrock pelo Estúdio Unificado SageMaker não possui custos adicionais, e os usuários pagam apenas pelo uso dos recursos subjacentes que são exigidos pelas aplicações de IA generativa que eles criam. Por exemplo, os clientes pagarão apenas pelo modelo associado pelo Guardrails e Knowledge Base usaram em sua aplicação de IA generativa. Para mais informações, acesse a página de preços do Amazon Bedrock.

O Amazon Bedrock no Estúdio Unificado SageMaker está vinculado aos mesmos SLAs do Amazon Bedrock. Para mais informações, visite a página do Contrato de Nível de Serviço do Amazon Bedrock.

Para facilitar uma experiência de integração tranquila com o Amazon Bedrock no Estúdio Unificado SageMaker, você pode encontrar documentação detalhada no Guia do usuário. Se você tiver alguma dúvida adicional ou precisar de mais ajuda, não hesite em entrar em contato com sua equipe de contas da AWS.