Barreiras de proteção do Amazon Bedrock
Implemente proteções personalizadas de acordo com os requisitos das aplicações e das políticas de IA responsáveisCrie aplicações de IA responsáveis com o Amazon Bedrock Guardrails
O Amazon Bedrock Guardrails fornece proteções adicionais personalizáveis, além das proteções nativas dos FMs, oferecendo proteções de segurança que estão entre as melhores do setor ao:
- Bloquear até 85% mais conteúdo prejudicial
- Filtrar mais de 75% das respostas alucinadas para RAG e workloads de resumo
- Permitir que os clientes personalizem e apliquem proteções de segurança, privacidade e veracidade em uma única solução
Ofereça um nível consistente de segurança de IA em todas as suas aplicações
O Amazon Bedrock Guardrails avalia as entradas do usuário e as respostas de FM com base nas políticas específicas do caso de uso e fornece uma camada adicional de salvaguardas, independentemente do FM subjacente. O Guardrails para Amazon Bedrock é o único recurso de IA responsável oferecido por um grande provedor de nuvem que permite aos clientes criar e personalizar proteções de segurança, privacidade e veracidade para suas aplicações de IA generativa em uma única solução; e funciona com todos os grandes modelos de linguagem (LLMs) no Amazon Bedrock, bem como com modelos ajustados. Os clientes podem criar várias barreiras de proteção, cada uma configurada com uma combinação diferenciada de controles, e usá-las em diferentes aplicações e casos de uso. O Amazon Bedrock Guardrails também pode ser integrado ao Amazon Bedrock Agents e ao Amazon Bedrock Knowledge Bases para criar aplicações de IA generativa alinhadas às suas políticas responsáveis de IA. Além disso, o Amazon Bedrock Guardrails oferece uma API ApplyGuardrail para avaliar as entradas do usuário e modelar as respostas geradas por qualquer FM personalizado ou de terceiros fora do Bedrock.
Bloqueie tópicos indesejáveis nas aplicações de IA generativa
As organizações reconhecem a necessidade de gerenciar as interações nas aplicações de IA generativa para garantir uma experiência relevante e segura para os usuários. Elas querem personalizar ainda mais as interações para se aterem em tópicos relevantes aos negócios e se alinharem às políticas da empresa. Usando uma breve descrição em linguagem natural, o Amazon Bedrock Guardrails permite que você defina um conjunto de tópicos a serem evitados no contexto da sua aplicação. O Amazon Bedrock Guardrails detecta e bloqueia as entradas do usuário e as respostas de FM que se enquadram nos tópicos restritos. Por exemplo, um assistente de banco pode ser projetado para evitar tópicos relacionados à consultoria de investimentos.
Filtre conteúdo nocivo com base em políticas de IA responsáveis
O Amazon Bedrock Guardrails fornece filtros de conteúdo com limites configuráveis para filtrar conteúdo nocivo por ódio, insultos, sexo, violência, má conduta (incluindo atividade criminosa) e proteger contra ataques imediatos (injeção imediata e jailbreak). A maioria dos FMs já fornece proteções integradas para evitar a geração de respostas nocivas. Além dessas proteções, o Amazon Bedrock Guardrails permite configurar limites nas diferentes categorias de conteúdo para filtrar interações prejudiciais. Aumentar a resistência do filtro aumenta a agressividade da filtragem. Eles avaliam automaticamente as informações do usuário e as respostas do modelo para detectar e ajudar a evitar que o conteúdo se enquadre em categorias restritas. Por exemplo, um site de comércio eletrônico pode criar um assistente on-line para evitar o uso de linguagem imprópria, como discurso de ódio ou insultos.
Oculte informações confidenciais (PII) para proteger a privacidade
O Amazon Bedrock Guardrails permite que você detecte conteúdo confidencial, como informações de identificação pessoal (PII) nas entradas do usuário e nas respostas de FM. Você pode selecionar em uma lista de PIIs predefinidas ou definir um tipo personalizado de informações confidenciais usando expressões regulares (RegEx). Com base no caso de uso, você pode rejeitar seletivamente as entradas que contêm informações confidenciais ou ocultá-las nas respostas dos FMs. Por exemplo, você pode editar as informações pessoais dos usuários enquanto gera resumos das transcrições de conversas com clientes e atendentes em uma central de atendimento.
Bloqueie conteúdo impróprio com um filtro de palavras personalizadas
O Amazon Bedrock Guardrails permite que você configure um conjunto de palavras ou frases personalizadas que você deseja detectar e bloquear na interação entre seus usuários e aplicações de IA generativa. Isso também permitirá que você detecte e bloqueie palavrões, bem como palavras personalizadas específicas, como nomes de concorrentes ou outras palavras ofensivas.
Detecte alucinações nas respostas do modelo usando verificações de fundamento contextual
As organizações precisam implantar aplicações de IA generativa verdadeiras e confiáveis para manter e aumentar a confiança dos usuários. No entanto, aplicações criadas usando FMs podem gerar informações incorretas devido a alucinações. Por exemplo, os FMs podem gerar respostas que se desviam das informações de origem, que misturam diversas informações ou que inventam novas informações. O Amazon Bedrock Guardrails suporta verificações contextuais de aterramento para detectar e filtrar alucinações se as respostas não estiverem fundamentadas (por exemplo, informações factualmente imprecisas ou novas) nas informações de origem e forem irrelevantes para a consulta ou instrução do usuário. As verificações de fundamento contextual podem ser usadas para detectar alucinações em aplicações de conversas, resumos e RAG, em que as informações de origem podem ser usadas como referência para validar a resposta do modelo.
Próximas etapas
Você encontrou o que estava procurando hoje?
Informe-nos para que possamos melhorar a qualidade do conteúdo em nossas páginas.