Anwendungsgenerator für generative KI in AWS

Schnelle Entwicklung und Bereitstellung produktionsreifer Anwendungen für generative KI

Übersicht

Eine der größten Herausforderungen bei der Entwicklung generativer KI-Anwendungen ist das komplexe Cloud-Setup und der Bedarf an fundiertem KI-Fachwissen. Generative AI Application Builder in AWS vereinfacht diesen Prozess und hilft Ihnen dabei, KI-Anwendungen ohne umfangreiche KI-Kenntnisse zu entwickeln, zu testen und bereitzustellen. Diese Lösung beschleunigt Ihre KI-Entwicklung, indem sie Ihre Geschäftsdaten einfach integriert, die Leistung großer Sprachmodelle (LLMs) vergleicht, mehrstufige Aufgaben über KI-Agenten ausführt, schnell erweiterbare Anwendungen erstellt und sie mit einer Architektur auf Unternehmensebene bereitstellt. Generative AI Application Builder enthält einen gebrauchsfertigen generativen KI-Chatbot und eine API, die schnell in Ihre Geschäftsprozesse oder Anwendungen integriert werden können.

Diese Lösung umfasst Integrationen mit Amazon Bedrock und seinen LLMs zusätzlich zu den auf Amazon SageMaker bereitgestellten LLMs. Sie nutzt Amazon Bedrock Tools für Retrieval Augmented Generation (RAG), um KI-Reaktionen zu verbessern, Amazon-Bedrock-Integritätsschutz, um Schutzmaßnahmen zu implementieren und Halluzinationen zu reduzieren, und Amazon-Bedrock-Agenten, um Workflows für komplexe Aufgaben zu erstellen. Sie können auch mithilfe von LangChain oder AWS Lambda eine Verbindung zu anderen KI-Modellen herstellen. Beginnen Sie mit dem einfachen, codefreien Assistenten, um KI-Anwendungen für Konversationssuche, KI-generierte Chatbots, Textgenerierung und Textzusammenfassung zu erstellen.

Anwendungsfälle für diese AWS-Lösung
  • Überschrift
Weitere Informationen ...

Vorteile

Schnelles Experimentieren

Mit dieser Lösung können Benutzer schnell experimentieren, da der Aufwand entfällt, der für die Bereitstellung mehrerer Instances mit unterschiedlichen Konfigurationen und für den Vergleich von Ergebnissen und Leistung erforderlich ist. Experimentieren Sie mit mehreren Konfigurationen verschiedener LLMs, Prompt-Engineering, Wissensdatenbanken für Unternehmen, Integritätsschutz, KI-Agenten und anderen Parametern.

Konfigurierbarkeit

Mit vorgefertigten Konnektoren zu einer Vielzahl von LLMs, wie z. B. den über Amazon Bedrock verfügbaren Modellen, bietet Ihnen diese Lösung die Flexibilität, das Modell Ihrer Wahl sowie die von Ihnen bevorzugten AWS- und führenden FM-Services bereitzustellen. Sie können Agenten von Amazon Bedrock auch für die Erfüllung verschiedener Aufgaben und Workflows aktivieren.

Produktionsreife

Diese Lösung basiert auf den Entwicklungsprinzipien von AWS Well-Architected und bietet Sicherheit und Skalierbarkeit auf Unternehmensniveau mit hoher Verfügbarkeit und geringer Latenz. Dadurch wird eine nahtlose Integration in Ihre Anwendungen mit hohen Leistungsstandards gewährleistet.

Erweiterbare modulare Architektur

Erweitern Sie die Funktionalität dieser Lösung, indem Sie Ihre vorhandenen Projekte integrieren oder zusätzliche AWS-Services nativ verbinden. Da es sich um eine Open-Source-Anwendung handelt, können Sie die enthaltene LangChain-Orchestrierungsservice-Ebene oder Lambda-Funktionen verwenden, um eine Verbindung mit den Services Ihrer Wahl herzustellen.

Technische Details

Sie können diese Architektur mithilfe des Implementierungsleitfadens und der zugehörigen AWS-CloudFormation-Vorlage, die drei separate Architekturen bereitstellt, automatisch bereitstellen:

  1. Anwendungsfall für Agenten – Der Anwendungsfall für Agenten ermöglicht es Benutzern, Aufgaben zur Erledigung mithilfe von Amazon-Bedrock-Agenten einzureichen. Sie können ein Modell auswählen, einige Anweisungen in natürlicher Sprache schreiben, und KI-Agenten von Amazon Bedrock analysieren, orchestrieren und erledigen die Aufgaben, indem sie eine Verbindung zu Ihren Datenquellen oder anderen APIs herstellen, um Ihre Anfrage zu erfüllen.
  2. Textanwendungsfall – Der Testanwendungsfall ermöglicht es Benutzern, mithilfe generativer KI eine Benutzeroberfläche in natürlicher Sprache zu erleben. Dieser Anwendungsfall kann in neue oder bestehende Anwendungen integriert werden und kann über das Bereitstellungs-Dashboard oder unabhängig über eine angegebene URL bereitgestellt werden.
  3. Bereitstellungs-Dashboard – Das Bereitstellungs-Dashboard ist eine Web-UI, die Administratorbenutzern als Verwaltungskonsole zum Anzeigen, Verwalten und Erstellen ihrer Anwendungsfälle dient. Dieses Dashboard ermöglicht es Kunden, mithilfe mehrerer Konfigurationen von LLMs und Daten schnell mit Anwendungen für generative KI zu experimentieren, zu iterieren und bereitzustellen.
  • Anwendungsfall für Agenten
  • Anwendungsfall-Text
  • Bereitstellungs-Dashboard
Über diese Bereitstellung
  • Datum der Veröffentlichung
Bereitstellungsoptionen
Sind Sie startbereit?
Diese Lösung bereitstellen, indem Sie sie in Ihrer AWS-Konsole starten
AWS-Service
Amazon Bedrock

Der einfachste Weg, Anwendungen für generative KI mit Basismodellen zu erstellen und zu skalieren.

Weitere Informationen 
Leitfaden
Leitfaden für Bereitstellungen generativer KI mit Amazon Sagemaker JumpStart

Dieser Leitfaden zeigt, wie Sie ein von Amazon SageMaker JumpStart bereitgestelltes Modell der generativen künstlichen Intelligenz (KI) einsetzen, um mithilfe des AWS Cloud Development Kit (AWS CDK) einen asynchronen SageMaker-Endpunkt zu erstellen.

Weitere Informationen 
Leitfaden
Leitfaden für Abfragen relationaler Datenbanken in natürlicher Sprache in AWS

Dieser Leitfaden zeigt, wie eine Anwendung erstellt wird, mit der Benutzer mithilfe von Abfragen in natürlicher Sprache (NLQ) Fragen direkt an relationale Datenbanken stellen können.

Weitere Informationen 
AWS-Service
Generative KI für jedes Unternehmen

Steigern Sie die Produktivität, schaffen Sie differenzierte Erlebnisse und führen Sie Innovationen mit AWS schneller ein.

Weitere Informationen 
Fallbeispiel
Einführung eines hochpräzisen Chatbots mit generativen KI-Lösungen in AWS mit Megamedia

Diese Fallstudie zeigt, wie das Rundfunkunternehmen Megamedia einen generativen KI-gestützten Chatbot entwickelt hat, um den Zugriff auf wichtige öffentliche Informationen mithilfe von AWS zu vereinfachen.

Die Fallstudie lesen 
Video
Lösen mit AWS-Lösungen: Generative-KI-Anwendungsentwickler in AWS
Video ansehen 

War diese Seite hilfreich?