Información general
QnABot en AWS es una inteligencia artificial (IA) generativa habilitada para una interfaz conversacional (o chatbot) multicanal y multilingüe que responde a las preguntas, respuestas y comentarios de sus clientes. Permite implementar un chatbot totalmente funcional a través de varios canales, como chat, voz, SMS y Amazon Alexa.
Beneficios
Ofrece tutoriales personalizados y facilita el modelo de preguntas y respuestas con una interacción inteligente multiparte. Importe y exporte fácilmente las preguntas desde su configuración de QnABot.
Use las capacidades de procesamiento de lenguaje natural (NLP) de Amazon Kendra para comprender mejor las preguntas humanas. Cree aplicaciones conversacionales con Amazon Bedrock, un servicio administrado que ofrece modelos básicos de alto rendimiento.
Automatice los flujos de trabajo de atención al cliente. Ahorre en costos y atienda mejor a sus clientes para que puedan obtener respuestas precisas y ayuda rápidamente.
Utilice la concordancia de intenciones y espacios para diversos flujos de trabajo de preguntas y respuestas. Aproveche la comprensión del lenguaje natural, la gestión del contexto y los diálogos de varios turnos a través de modelos de lenguaje grandes (LLM) y generación aumentada por recuperación (RAG).
Detalles técnicos
Puede implementar automáticamente esta arquitectura con la guía de implementación y la plantilla apropiada de AWS CloudFormation. Si desea llevar a cabo la implementación mediante una VPC, primero implemente una VPC con dos subredes privadas y dos públicas distribuidas en dos zonas de disponibilidad y, a continuación, utilice la plantilla de AWS CloudFormation de QnABot para VPC. De lo contrario, utilice la plantilla principal de AWS CloudFormation de QnABot.
Paso 1
El administrador implementa la solución en la cuenta de AWS, abre la interfaz de usuario (IU) del diseñador de contenido o el cliente web Amazon Lex y utiliza Amazon Cognito para autenticarse.
Paso 2
Tras la autenticación, Amazon API Gateway y Amazon Simple Storage Service (Amazon S3) entregan el contenido de la interfaz de usuario del diseñador de contenidos.
Paso 3
El administrador configura las preguntas y respuestas en el diseñador de contenidos y la interfaz de usuario envía solicitudes a API Gateway para guardar las preguntas y respuestas.
Paso 4
La función de AWS Lambda del diseñador de contenidos guarda la entrada en Amazon OpenSearch Service en un índice de banco de preguntas. Si se utilizan incrustaciones de texto, estas solicitudes pasan por LLM alojados en Amazon SageMaker o Amazon Bedrock para generar incrustaciones antes de guardarse en el banco de preguntas de OpenSearch.
Paso 5
Los usuarios del chatbot interactúan con Amazon Lex a través de la interfaz de usuario del cliente web, de Amazon Alexa o Amazon Connect.
Paso 6
Amazon Lex reenvía las solicitudes a la función de Lambda Bot Fulfillment. Los usuarios también pueden enviar solicitudes a esta función de Lambda a través de dispositivos Amazon Alexa.
Paso 7
La información del usuario y del chat se almacena en Amazon DynamoDB para eliminar la ambigüedad de las preguntas de seguimiento del contexto anterior de preguntas y respuestas.
Paso 8
La función de Lambda Bot Fulfillment recibe la información ingresada por el usuario y utiliza Amazon Comprehend y Amazon Translate (si es necesario) para traducir las solicitudes en idiomas no nativos al idioma nativo seleccionado durante la implementación y, a continuación, busca la respuesta en OpenSearch Service.
Si utiliza características de LLM, como la generación de texto y la incrustación de texto, estas solicitudes pasan primero por varios LLM alojados en SageMaker o Amazon Bedrock para generar la consulta de búsqueda y las incrustaciones y compararlas con las guardadas en el banco de preguntas de OpenSearch.
Paso 9
Si el banco de preguntas de OpenSearch no devuelve ninguna coincidencia, la función de Lambda Bot Fulfillment reenvía la solicitud de la siguiente manera:
Paso 9A
Si un índice de Amazon Kendra está configurado como opción alternativa, la función de Lambda Bot Fulfillment reenvía la solicitud a Amazon Kendra si el banco de preguntas de OpenSearch no devuelve ninguna coincidencia. El LLM de generación de texto puede utilizarse de forma opcional para crear la consulta de búsqueda y sintetizar una respuesta a partir de los extractos de documentos devueltos.
Paso 9B
Si se configura un ID de Base de conocimientos para Amazon Bedrock, la función de Lambda Bot Fulfillment reenvía la solicitud a la Base de conocimientos para Amazon Bedrock. La función de Lambda Bot Fulfillment aprovecha la API RetrieveAndGenerate de API Gateway para obtener los resultados relevantes de una consulta de usuario, aumentar la solicitud del modelo fundamental y devolver la respuesta.
Paso 10
Las interacciones de los usuarios con la función de Lambda Bot Fulfillment generan registros y datos de métricas, que se envían a Amazon Data Firehose y, a continuación, a Amazon S3 para su posterior análisis de datos.
Paso 11
Los paneles de OpenSearch se pueden usar para ver el historial de uso, las expresiones registradas, las expresiones sin resultados, los comentarios positivos de los usuarios y los comentarios negativos de los usuarios, y también ofrecen la posibilidad de crear informes personalizados.
Contenido relacionado
- Fecha de publicación