Présentation
QNabot sur AWS est une interface conversationnelle (ou chatbot) d'intelligence artificielle (IA) générative multicanal et multilingue qui répond aux questions, réponses et commentaires de vos clients. Elle vous permet de déployer un chatbot entièrement fonctionnel sur plusieurs canaux, notamment le chat, la voix, les SMS et Amazon Alexa.
Avantages
Fournir des tutoriels personnalisés et une assistance sous forme de questions et réponses avec une interaction intelligente en plusieurs parties. Importez et exportez facilement des questions depuis votre configuration QNabot.
Utilisez les capacités de traitement du langage naturel (NLP) d'Amazon Kendra pour mieux comprendre les questions humaines. Créez des applications conversationnelles à l'aide d'Amazon Bedrock, un service géré proposant des modèles de base performants.
Automatiser les flux d'assistance à la clientèle. Réalisez des économies et offrez un meilleur service à vos clients afin qu'ils puissent obtenir des réponses précises et de l'aide rapidement.
Utilisez la correspondance des intentions et des créneaux pour divers flux de questions-réponses. Tirez parti de la compréhension du langage naturel, de la gestion du contexte et des dialogues à tours multiples grâce à de grands modèles de langage (LLM) et à la génération à enrichissement contextuel (RAG).
Détails techniques
Vous pouvez déployer automatiquement cette architecture à l'aide du guide d'implémentation et du modèle AWS CloudFormation approprié. Si vous souhaitez déployer à l'aide d'un VPC, déployez d'abord un VPC avec deux sous-réseaux privés et deux sous-réseaux publics répartis sur deux zones de disponibilité, puis utilisez le modèle QNabot VPC AWS CloudFormation. Sinon, utilisez le modèle QNabot Main AWS CloudFormation.
Étape 1
L'administrateur déploie la solution dans son compte AWS, ouvre l'interface utilisateur (IU) du concepteur de contenu ou le client Web Amazon Lex et utilise Amazon Cognito pour s'authentifier.
Étape 2
Après l'authentification, Amazon API Gateway et Amazon Simple Storage Service (Amazon S3) délivrent le contenu de l'interface utilisateur du concepteur de contenu.
Étape 3
L'administrateur configure les questions et les réponses dans le concepteur de contenu et l'interface utilisateur envoie des requêtes à la passerelle API pour enregistrer les questions et les réponses.
Étape 4
La fonction AWS Lambda du concepteur de contenu enregistre l'entrée dans Amazon OpenSearch Service dans un index de banque de questions. Si vous utilisez des intégrations de texte, ces demandes passent par des LLM hébergés sur Amazon SageMaker ou Amazon Bedrock pour générer des intégrations avant d'être enregistrées dans la banque de questions sur OpenSearch.
Étape 5
Les utilisateurs du chatbot interagissent avec Amazon Lex via l'interface utilisateur du client Web, Amazon Alexa, ou Amazon Connect.
Étape 6
Amazon Lex transmet les demandes à la fonction Lambda Bot Fulfillment. Les utilisateurs peuvent également envoyer des demandes à cette fonction Lambda via les appareils Amazon Alexa.
Étape 7
Les informations relatives à l'utilisateur et au chat sont stockées dans Amazon DynamoDB afin de désambiguïser les questions de suivi par rapport à la question précédente et au contexte de la réponse.
Étape 8
La fonction Lambda Bot Fulfillment prend l'entrée des utilisateurs et utilise Amazon Comprehend et Amazon Translate (si nécessaire) pour traduire les demandes en langue étrangère dans la langue du pays sélectionné pendant le déploiement, puis recherche la réponse dans OpenSearch Service.
Si vous utilisez des fonctionnalités LLM telles que la génération de texte et l'incorporation de texte, ces requêtes passent d'abord par différents LLM hébergés sur SageMaker ou Amazon Bedrock pour générer la requête de recherche et les intégrations et les comparer avec celles enregistrées dans la banque de questions sur OpenSearch.
Étape 9
Si aucune correspondance n'est renvoyée par la banque de questions OpenSearch, la fonction Lambda de Bot Fulfillment transmet la demande comme suit :
Étape 9A
Si un index Amazon Kendra est configuré pour le repli, la fonction Lambda Bot Fulfillment transmet la demande à Amazon Kendra si aucune correspondance n'a été renvoyée par la banque de questions OpenSearch. La génération de texte LLM peut être utilisée pour créer la requête de recherche et pour synthétiser une réponse à partir des extraits du document renvoyé.
Étape 9B
Si un identifiant de base de connaissances pour Amazon Bedrock est configuré, la fonction Lambda de Bot Fulfillment transmet la demande à la base de connaissances pour Amazon Bedrock. La fonction Lambda Bot Fulfillment exploite la passerelle APIRetrieveAndGenerate pour récupérer les résultats pertinents pour une requête utilisateur, augmenter l'invite du modèle de base et renvoyer la réponse.
Étape 10
Les interactions des utilisateurs avec la fonction Lambda Bot Fulfillment génèrent des journaux et des données métriques, qui sont envoyés à Amazon Data Firehose, puis à Amazon S3 pour une analyse ultérieure des données.
Étape 11
Les tableaux de bord OpenSearch peuvent être utilisés pour afficher l'historique d'utilisation, les énoncés enregistrés, les énoncés sans accès, les commentaires positifs et négatifs des utilisateurs, et offrent également la possibilité de créer des rapports personnalisés.
Rubriques connexes
- Date de publication