Wählen Sie die richtigen KI- und ML-Services, Frameworks und Grundmodelle aus, um Ihre Arbeit zu unterstützen
Einführung
Im Grunde ist Machine Learning (ML) darauf ausgelegt, digitale Tools und Services bereitzustellen, um aus Daten zu lernen, Muster zu erkennen, Prognosen zu treffen und dann auf diese Prognosen zu reagieren. Fast alle Systeme der künstlichen Intelligenz (KI) werden heutzutage mit ML erstellt. ML verwendet große Datenmengen, um Entscheidungslogik zu erstellen und zu validieren. Diese Entscheidungslogik bildet die Grundlage des KI-„Modells“.
Eine schnell wachsende Untergruppe des Machine Learning ist die generative KI, die von großen Modellen unterstützt wird, die auf einer großen Datenmenge vorab trainiert werden – allgemein als Grundlagenmodelle (FMs) bezeichnet. Zu den auf generativer KI basierenden AWS-Services gehören:
- Amazon Bedrock (bietet Ihnen die Möglichkeit, generative KI-basierte Anwendungen mithilfe von FMs zu erstellen und zu skalieren)
- Amazon CodeWhisperer (ein KI-Codierungsbegleiter, der Codevorschläge in Echtzeit basierend auf Ihren Kommentaren in natürlicher Sprache und jedem vorherigen Code in Ihrer integrierten Entwicklungsumgebung generiert)
Dieser Entscheidungsleitfaden hilft Ihnen, die richtigen Fragen zu stellen, Ihre Kriterien und Ihr Geschäftsproblem auszuwerten und festzustellen, welche Services am besten zu Ihren Anforderungen passen.
In weniger als zwei Minuten erklärt Dr. Werner Vogels, CTO von Amazon, wie generative KI funktioniert und wie Sie sie einsetzen können. Dieses Video ist Teil eines längeren Gesprächs zwischen Dr. Vogels und Swami Sivasubramanian, AWS-Vizepräsident für Datenbank, Analytik und ML, über die umfassende Landschaft der generativen KI, warum diese kein Hype ist und wie AWS den Zugriff auf große Sprach- und Grundlagenmodelle demokratisiert.
Zeit zum Lesen
25 Minuten
Zweck
Bei der Entscheidung zu helfen, welche AWS ML-Services am besten für Ihre Anforderungen geeignet sind.
Stufe
Einsteiger
Letzte Aktualisierung
26. Juli 2023
Abgedeckte Services
Weitere Entscheidungsleitfäden zu
Verständnis
Darüber hinaus bietet AWS die folgende spezialisierte, beschleunigte Hardware für leistungsstarkes ML-Training und Inferenz.
- Amazon-EC2-P4d-Instances sind mit NVIDIA A100-Tensor-Kern-GPUs ausgestattet, die sich sowohl für Trainings- als auch für Inferenzaufgaben im Machine Learning gut eignen. AWS Trainium ist der ML-Beschleuniger der zweiten Generation, den AWS speziell für das DL-Training von über 100 Milliarden Parametermodellen entwickelt hat.
- AWS-Inferentia2-basierte Amazon-EC2-Inf2-Instances sind so konzipiert, dass sie in Amazon EC2 hohe Leistung zu niedrigsten Kosten für Ihre DL-Inferenz- und generative KI-Anwendungen liefern.
Überlegungen
Bei der Lösung eines Geschäftsproblems mit AWS-ML-Services kann die Berücksichtigung mehrerer wichtiger Kriterien zum Erfolg beitragen. Im folgenden Abschnitt finden Sie einige der wichtigsten Kriterien, die Sie bei der Auswahl eines ML-Services berücksichtigen sollten.
-
Definition des Problems
-
ML-Algorithmus
-
Sicherheit
-
Latenz
-
Genauigkeit
-
AWS und verantwortungsvolle KI
-
Der erste Schritt im ML-Lebenszyklus besteht darin, das Geschäftsproblem zu formulieren. Um den richtigen AWS-ML-Service auszuwählen, ist es wichtig, das Problem zu verstehen, das Sie zu lösen versuchen, da verschiedene Services für unterschiedliche Probleme konzipiert sind. Es ist auch wichtig, festzustellen, ob ML die beste Lösung für Ihr Geschäftsproblem ist.
Sobald Sie festgestellt haben, dass ML am besten geeignet ist, können Sie zunächst aus einer Reihe speziell entwickelter AWS-KI-Services auswählen (in Bereichen wie Sprache, Vision und Dokumente).
Amazon SageMaker bietet eine vollständig verwaltete Infrastruktur, wenn Sie Ihre eigenen Modelle erstellen und trainieren müssen. AWS bietet eine Reihe von fortschrittlichen ML-Frameworks und Infrastrukturoptionen für die Fälle, in denen Sie hoch individuelle und spezialisierte ML-Modelle benötigen. AWS bietet außerdem eine große Auswahl an beliebten Grundlagenmodellen für die Entwicklung neuer Anwendungen mit generativer KI.
-
Die Auswahl des ML-Algorithmus für das Geschäftsproblem, das Sie zu lösen versuchen, hängt von der Art der Daten ab, mit denen Sie arbeiten, sowie von den gewünschten Ergebnissen. In den folgenden Informationen wird erläutert, wie jede der wichtigsten AWS-KI/ML-Servicekategorien Sie in die Lage versetzt, mit ihren Algorithmen zu arbeiten:
- Spezialisierte KI-Services: Diese Services bieten nur begrenzte Möglichkeiten zur Anpassung des ML-Algorithmus, da es sich um vorab trainierte Modelle handelt, die für bestimmte Aufgaben optimiert sind. Normalerweise können Sie die Eingabedaten und einige Parameter anpassen, haben jedoch keinen Zugriff auf die zugrunde liegenden ML-Modelle oder die Möglichkeit, eigene Modelle zu erstellen.
- Amazon SageMaker: Dieser Service bietet die größte Flexibilität und Kontrolle über den ML-Algorithmus. Sie können SageMaker verwenden, um benutzerdefinierte Modelle mit Ihren eigenen Algorithmen und Frameworks zu erstellen oder vorgefertigte Modelle und Algorithmen von AWS verwenden. Dies ermöglicht ein hohes Maß an Anpassung und Kontrolle über den ML-Prozess.
- ML-Frameworks und -Infrastruktur der unteren Ebene: Diese Services bieten die größte Flexibilität und Kontrolle über den ML-Algorithmus. Sie können diese Services verwenden, um hoch individuelle ML-Modelle mithilfe ihrer eigenen Algorithmen und Frameworks zu entwickeln. Die Nutzung dieser Services erfordert jedoch erhebliche ML-Kenntnisse und ist möglicherweise nicht für jeden Anwendungsfall durchführbar.
-
Wenn Sie einen privaten Endpunkt in Ihrer VPC benötigen, variieren Ihre Optionen abhängig von der Ebene der AWS-ML-Services, die Sie verwenden. Dazu gehören:
- Spezialisierte KI-Services: Die meisten spezialisierten KI-Services unterstützen derzeit keine privaten Endpunkte in VPCs. Auf Amazon Rekognition Custom Labels und Amazon Comprehend Custom kann jedoch über VPC-Endpunkte zugegriffen werden.
- Kern-KI-Services: Amazon Translate, Amazon Transcribe und Amazon Comprehend unterstützen alle VPC-Endpunkte.
- Amazon SageMaker: SageMaker bietet integrierte Unterstützung für VPC-Endpunkte und ermöglicht Ihnen die Bereitstellung der trainierten Modelle als Endpunkt, auf den nur von der VPC aus zugegriffen werden kann.
- ML-Frameworks und -Infrastruktur der unteren Ebene: Sie können Ihre Modelle in Amazon-EC2-Instances oder in Container innerhalb Ihrer VPC bereitstellen und haben so die vollständige Kontrolle über die Netzwerkkonfiguration.
-
KI-Services der oberen Ebene, wie Amazon Rekognition und Amazon Transcribe, sind für eine Vielzahl von Anwendungsfällen konzipiert und bieten eine hohe Leistung in Bezug auf die Geschwindigkeit. Allerdings erfüllen sie möglicherweise bestimmte Latenzanforderungen nicht.
Wenn Sie ML-Frameworks und -Infrastrukturen der niedrigeren Ebene verwenden, empfehlen wir die Nutzung von Amazon SageMaker. Aufgrund des vollständig verwalteten Services und der optimierten Bereitstellungsoptionen ist diese Option im Allgemeinen schneller als die Erstellung benutzerdefinierter Modelle. Ein hochoptimiertes benutzerdefiniertes Modell kann zwar die Leistung von SageMaker übertreffen, erfordert jedoch viel Fachwissen und Ressourcen, um es zu erstellen.
-
Die Genauigkeit der AWS-ML-Services hängt vom jeweiligen Anwendungsfall und dem Grad der erforderlichen Anpassung ab. KI-Services der höheren Ebene, wie Amazon Rekognition basieren auf vorab trainierten Modellen, die für bestimmte Aufgaben optimiert wurden und in vielen Anwendungsfällen eine hohe Genauigkeit bieten.
In einigen Fällen können Sie Amazon SageMaker verwenden, das eine flexiblere und anpassbarere Plattform zum Erstellen und Trainieren benutzerdefinierter ML-Modelle bietet. Durch das Entwickeln Ihrer eigenen Modelle können Sie möglicherweise eine noch höhere Genauigkeit erzielen, als dies mit vorab trainierten Modellen möglich ist.
Sie können sich auch für die Verwendung von ML-Frameworks und -Infrastrukturen wie TensorFlow und Apache MXNet entscheiden, um hoch individuelle Modelle zu erstellen, die die höchstmögliche Genauigkeit für Ihren spezifischen Anwendungsfall bieten.
-
AWS entwickelt in jeder Phase seines Entwicklungsprozesses Grundlagenmodelle (FMs) mit Blick auf eine verantwortungsvolle KI. Während des gesamten Entwurfs, der Entwicklung, des Einsatzes und des Betriebs berücksichtigen wir eine Reihe von Faktoren, darunter:
- Genauigkeit (wie gut eine Zusammenfassung mit dem zugrunde liegenden Dokument übereinstimmt, ob eine Biografie sachlich korrekt ist)
- Fairness (ob die Ergebnisse demografische Gruppen ähnlich behandeln)
- Überlegungen zum geistigen Eigentum und zum Urheberrecht
- Angemessene Nutzung (Herausfiltern von Benutzeranfragen nach Rechtsberatung, medizinischen Diagnosen oder illegalen Aktivitäten)
- Toxizität (Hassreden, Obszönitäten und Beleidigungen)
- Datenschutz (Schutz personenbezogener Daten und Kundenanfragen)
AWS integriert Lösungen, um diese Probleme in den Prozessen zur Erfassung von Trainingsdaten, in den FMs selbst und in der Technologie zur Vorverarbeitung von Benutzereingaben und Nachbearbeitung von Ausgaben zu bewältigen.
Auswahl
Nachdem Sie nun die Kriterien kennen, die Sie zur Bewertung Ihrer Speicheroptionen verwenden sollten, können Sie auswählen, welche AWS-Speicherservices für Ihre Geschäftsanforderungen geeignet sind.
Die folgende Tabelle zeigt, welche Speicheroptionen für welche Umstände optimiert sind. Verwenden Sie sie, um die Lösung zu ermitteln, die am besten zu Ihrem Anwendungsfall passt.
Mit Amazon Comprehend können Sie Aufgaben zur Verarbeitung natürlicher Sprache, wie Stimmungsanalyse, Entitätserkennung, Themenmodellierung und Spracherkennung, mit Ihren Textdaten durchführen.
Amazon Lex unterstützt Sie bei der Entwicklung von Chatbots und Sprachassistenten, die über eine Benutzeroberfläche in natürlicher Sprache mit Benutzern interagieren können. Es bietet vorgefertigte Dialogmanagement-, Sprachverständnis- und Spracherkennungsfunktionen.
Verwenden Sie Amazon Polly, um Text in lebensechte Sprache umzuwandeln und so die Erstellung sprachgesteuerter Anwendungen und Services zu vereinfachen.
Mit Amazon Rekognition können Sie Ihren Anwendungen Bild- und Videoanalysen hinzufügen. Sie stellen der Amazon-Rekognition-API ein Bild oder Video zur Verfügung und der Service kann Objekte, Personen, Text, Szenen und Aktivitäten identifizieren. Er kann auch unangemessene Inhalte erkennen.
Mit Amazon Textract können Sie Text und Daten aus gescannten Dokumenten, Formularen und Tabellen extrahieren und so die Speicherung, Analyse und Verwaltung dieser Daten vereinfachen.
Mit Amazon Transcribe können Kunden Audio- und Videoaufnahmen automatisch in Text transkribieren. Dies kann im Vergleich zur manuellen Transkription Zeit und Aufwand sparen.
Verwenden Sie diesen Service, um Texte in Echtzeit von einer Sprache in eine andere zu übersetzen. Dies ist besonders hilfreich, wenn Ihr Unternehmen in mehreren Ländern tätig ist oder mit Nicht-Muttersprachlern kommunizieren muss.
Amazon Bedrock ist ein vollständig verwalteter Service, der Grundlagenmodelle von führenden KI-Startups und Amazon über eine API zur Verfügung stellt. So können Sie aus einer Vielzahl von Grundlagenmodellen auswählen, um das für Sie am besten geeignete Modell zu finden.
Amazon CodeWhisperer ist ein Echtzeit-KI-Codierungsbegleiter, der bei der Erstellung von Code für routinemäßige oder zeitaufwändige, undifferenzierte Aufgaben, der Arbeit mit unbekannten APIs oder SDKs, der korrekten und effektiven Nutzung von AWS-APIs und anderen gängigen Codierungsszenarien wie dem Lesen und Schreiben von Dateien, der Image-Verarbeitung und dem Schreiben von Einheitstests hilft.
Amazon SageMaker Autopilot wurde entwickelt, um den Aufwand beim Erstellen von ML-Modellen zu reduzieren. Sie stellen einfach einen Tabellendatensatz bereit und wählen die Zielspalte aus, die vorhergesagt werden soll. SageMaker Autopilot wird automatisch verschiedene Lösungen untersuchen, um das beste Modell zu finden. Sie können dann das Modell mit nur einem Klick direkt in die Produktion übernehmen oder die empfohlenen Lösungen iterativ bearbeiten, um die Modellqualität weiter zu verbessern.
Amazon SageMaker Canvas bietet Ihnen die Möglichkeit, Machine Learning zu nutzen, um Vorhersagen zu generieren, ohne Code schreiben zu müssen.
Amazon SageMaker Data Wrangler reduziert den Zeitaufwand für das Aggregieren und Aufbereiten von Tabellen- und Image-Daten für ML. Mit SageMaker Data Wrangler können Sie den Prozess der Datenaufbereitung und des Feature Engineering vereinfachen und jeden Schritt des Datenvorbereitungs-Workflows (einschließlich Datenauswahl, Bereinigung, Erkundung, Visualisierung und Verarbeitung in großem Maßstab) von einer einzigen visuellen Oberfläche aus abschließen.
SageMaker Ground Truth ist ein verwalteter Service zur Kennzeichnung von Daten zum Trainieren und Verbessern von Machine-Learning-Modellen. Es bietet eine äußerst genaue und effiziente Möglichkeit, große Datensätze durch die Verwendung einer Kombination aus menschlichen Annotatoren und Algorithmen für Machine Learning zu kennzeichnen. SageMaker Ground Truth unterstützt eine Vielzahl von Datentypen, darunter Text, Bild, Video und Audio, und lässt sich nahtlos mit anderen SageMaker Services für umfassende Machine-Learning-Workflows integrieren.
SageMaker JumpStart stellt vorab trainierte Open-Source-Modelle für eine Vielzahl von Problemtypen bereit, um Ihnen den Einstieg in Machine Learning zu erleichtern. Sie können diese Modelle vor der Bereitstellung schrittweise trainieren und optimieren. JumpStart bietet außerdem Lösungsvorlagen zum Einrichten der Infrastruktur für häufige Anwendungsfälle sowie ausführbare Beispiel-Notebooks für Machine Learning mit SageMaker.
Mit Amazon SageMaker Pipelines können Sie ML-Workflows mit einem Python SDK erstellen und Ihren Workflow anschließend mit Amazon SageMaker Studio visualisieren und verwalten. Mit Amazon SageMaker Pipelines können Sie die von Ihnen in SageMaker Pipelines erstellten Workflow-Schritte speichern und wiederverwenden.
Eine vollständig integrierte Entwicklungsumgebung (IDE), die es Entwicklern ermöglicht, Machine-Learning-Modelle in großem Maßstab zu entwickeln, zu trainieren und bereitzustellen. Es bietet eine einzige webbasierte Benutzeroberfläche zur Verwaltung des gesamten Lebenszyklus von Machine Learning, von der Datenaufbereitung und dem Modelltraining bis hin zur Bereitstellung und Überwachung. SageMaker Studio unterstützt außerdem beliebte Tools wie Jupyter Notebooks, Git und TensorFlow und bietet eine Reihe vorgefertigter Algorithmen für gängige Anwendungsfälle.
Amazon SageMaker Studio Lab ist eine cloudbasierte IDE zum Erlernen und Experimentieren mit Machine Learning mithilfe von vorgefertigten Jupyter-Notebooks. Es enthält eine Reihe vorgefertigter Notebooks zu Themen wie Bilderkennung, Verarbeitung natürlicher Sprache und Erkennung von Anomalien.
Apache MXNet ist ein Open-Source-Framework für Deep Learning, das mehrere Programmiersprachen unterstützt, darunter Python, Scala und R. Der Service ist für seine Skalierbarkeit und Geschwindigkeit bekannt und bietet eine Reihe von High-Level-APIs zum Entwickeln und Trainieren neuronaler Netzwerke sowie Low-Level-APIs für fortgeschrittene Benutzer.
Hugging Face in Amazon SageMaker
Hugging Face auf Amazon SageMaker ist eine Open-Source-Bibliothek für die natürliche Sprachverarbeitung (NLP), die eine breite Palette vorab trainierter Modelle und Tools für die Arbeit mit Textdaten bereitstellt. Es ist für seine Benutzerfreundlichkeit und hohe Leistung bekannt und wird häufig für Aufgaben wie Textklassifizierung, Stimmungsanalyse und Sprachübersetzung verwendet.
PyTorch in AWS ist ein Open-Source-Framework für Machine Learning, das dynamische Berechnungsgraphen und automatische Differenzierung zum Entwickeln und Trainieren neuronaler Netzwerke bietet. PyTorch ist für seine Benutzerfreundlichkeit und Flexibilität bekannt und verfügt über eine große und aktive Entwicklergemeinschaft, die zu seiner Entwicklung beiträgt.
TensorFlow ist ein von Google entwickeltes Open-Source-Framework für Machine Learning, das häufig für die Entwicklung und das Training neuronaler Netzwerke verwendet wird. Es ist für seine Skalierbarkeit, Geschwindigkeit und Flexibilität bekannt und unterstützt eine Reihe von Programmiersprachen, darunter Python, C++ und Java. TensorFlow bietet eine große Auswahl an vorgefertigten Modellen und Tools für die Image- und Textverarbeitung sowie Low-Level-APIs für fortgeschrittene Benutzer, die eine größere Kontrolle über ihre Modelle benötigen.
AWS Inferentia und AWS Inferentia2
Der AWS-Inferentia-Beschleuniger der ersten Generation treibt Amazon Elastic Compute Cloud (Amazon EC2)-Inf1-Instances an, die einen bis zu 2,3-fach höheren Durchsatz und bis zu 70 % niedrigere Kosten pro Inferenz als vergleichbare Amazon-EC2-Instances bieten. Der AWS-Inferentia2-Beschleuniger verbessert die erste Generation von AWS Inferentia. Inferentia2 bietet im Vergleich zu Inferentia einen bis zu viermal höheren Durchsatz und eine bis zu zehnmal geringere Latenz.
AWS Trainium ist der Beschleuniger für Machine Learning (ML) der zweiten Generation, den AWS speziell für Deep-Learning-Trainings von über 100 Milliarden Parametermodellen entwickelt hat. Jede Amazon Elastic Compute Cloud (EC2) Trn1-Instance stellt bis zu 16 AWS-Trainium-Beschleuniger für die Nutzung von Deep Learning (DL)-Training in der Cloud bereit.
Verwendung
Sie sollten nun ein klares Verständnis der Kriterien haben, die Sie bei der Auswahl eines AWS-ML-Service benötigen. Sie können nun auswählen, welche AWS-KI/ML-Service(s) für Ihre Geschäftsanforderungen optimiert sind.
Um herauszufinden, wie Sie den/die von Ihnen ausgewählten Service(s) verwenden und mehr darüber erfahren können, haben wir drei Pfade bereitgestellt, auf denen Sie die Funktionsweise der einzelnen Services erkunden können. Die erste Reihe von Pfaden bietet ausführliche Dokumentation, praktische Tutorials und Ressourcen für den Einstieg in Amazon Comprehend, Amazon Textract, Amazon Translate, Amazon Lex, Amazon Polly, Amazon Rekognition und Amazon Transcribe.
-
Amazon Comprehend
-
Amazon Textract
-
Amazon Translate
-
Amazon Lex
-
Amazon Polly
-
Amazon Rekognition
-
Amazon Transcribe
-
Amazon Comprehend
-
Erste Schritte mit Amazon Comprehend
Verwenden Sie die Amazon-Comprehend Konsole, um einen asynchronen Auftrag zur Erkennung von Entitäten zu erstellen und auszuführen.
Erste Schritte mit dem Tutorial »Erkenntnisanalyse in Texten mit Amazon Comprehend
Lernen Sie, wie Sie Amazon Comprehend verwenden, um Texte zu analysieren und Erkenntnisse daraus abzuleiten.
Amazon Comprehend – Preise
Informieren Sie sich über die Preisgestaltung und den Beispielen von Amazon Comprehend. -
Amazon Textract
-
Erste Schritte mit Amazon Textract
Erfahren Sie, wie Amazon Textract mit formatiertem Text verwendet werden kann, um nahe beieinander liegende Wörter und Wortzeilen zu erkennen und ein Dokument auf Elemente wie verwandten Text, Tabellen, Schlüssel-Wert-Paare und Auswahlelemente zu analysieren.
Extrahieren von Text und strukturierte Daten mit Amazon Textract
Erfahren Sie, wie Sie mit Amazon Textract Text und strukturierte Daten aus einem Dokument extrahieren.
AWS Power Hour: Machine Learning
Tauchen Sie in dieser Folge in Amazon Textract ein, verbringen Sie Zeit in der AWS-Managementkonsole und sehen Sie sich Codebeispiele an, die Ihnen helfen zu verstehen, wie Sie Service-APIs optimal nutzen.
-
Amazon Translate
-
Erste Schritte mit Amazon Translate mithilfe der Konsole
Der einfachste Einstieg in Amazon Translate besteht darin, die Konsole zum Übersetzen von Texten zu verwenden. Erfahren Sie, wie Sie mit der Konsole bis zu 10 000 Zeichen übersetzen.
Übersetzen von Texten in der Cloud
In diesem Tutorial-Beispiel müssen Sie als Teil eines internationalen Gepäckherstellers verstehen, was Kunden in Bewertungen in der lokalen Marktsprache Französisch über Ihr Produkt sagen.
Amazon Translate – Preise
Erkunden Sie die Preisgestaltung von Amazon Translate, einschließlich der kostenlosen Version, die 2 Millionen Zeichen pro Monat für 12 Monate anbietet.
Leitfaden erkunden »
Beschleunigung mehrsprachiger Workflows mit einer anpassbaren Übersetzungslösung
Erfahren Sie, wie Sie mithilfe von Amazon Translate und anderen AWS-Services eine einheitliche Übersetzungslösung mit Anpassungsfunktionen erstellen.
-
Amazon Lex
-
Amazon-Lex-V2-Entwicklerhandbuch
Informieren Sie sich über den Einstieg, die Funktionsweise und Preisinformationen für Amazon Lex V2.
Leitfaden erkunden »Einführung in Amazon Lex
Wir stellen Ihnen den Konversationsservice Amazon Lex vor und zeigen Ihnen anhand von Beispielen, wie Sie einen Bot erstellen und ihn für verschiedene Chat-Services bereitstellen.Am Kurs teilnehmen » (Anmeldung erforderlich)
Erkundung der generativen KI in Konversationserlebnissen
Erkunden Sie den Einsatz generativer KI in Konversationserlebnissen.
-
Amazon Polly
-
Was ist Amazon Polly?
Verschaffen Sie sich einen vollständigen Überblick über den Cloud Service, der Text in lebensechte Sprache umwandelt und mithilfe dessen Sie Anwendungen entwickeln können, um Ihre Kundenbindung und Zugänglichkeit zu verbessern.Hervorheben von Text während er gesprochen wird mithilfe von Amazon Polly
Wir stellen Ihnen Ansätze zum Hervorheben von Text während des Sprechens vor, um Audio in Büchern, Websites, Blogs und anderen digitalen Erlebnissen visuelle Funktionen zu verleihen.Erstellung von Audio für Inhalte in mehreren Sprachen mit der gleichen TTS-Stimmenpersona in Amazon Polly
Wir erklären Neuronale Text-to-Speech (NTTS) und erörtern, wie ein breites Portfolio an verfügbaren Stimmen, das eine Reihe von unterschiedlichen Sprechern in unterstützten Sprachen bereitstellt, für Sie arbeiten kann.
-
Amazon Rekognition
-
Was ist Amazon Rekognition?
Erfahren Sie, wie Sie diesen Service nutzen können, um Bild- und Videoanalysen zu Ihren Anwendungen hinzuzufügen.Praxisnahe Rekognition: Automatisierte Bild- und Videoanalyse
Erfahren Sie, wie die Gesichtserkennung beim Streaming von Videos funktioniert, zusammen mit Codebeispielen und wichtigen Punkten in einem selbstgesteuerten Tempo.
Amazon Rekognition – Häufig gestellte Fragen
Lernen Sie die Grundlagen von Amazon Rekognition kennen und erfahren Sie, wie Sie damit Ihr Deep Learning verbessern und Ihre Anwendungen visuell analysieren können. -
Amazon Transcribe
-
Was ist Amazon Transcribe?
Erkunden Sie den automatischen Spracherkennungsservice von AWS, der mithilfe von ML Audio in Text umwandelt. Erfahren Sie, wie Sie diesen Service als eigenständige Transkription nutzen oder einer beliebigen Anwendung die Sprach-zu-Text-Funktion hinzufügen könnenAmazon Transcribe – Preise
Wir stellen Ihnen die AWS-Transkription mit nutzungsbasierter Bezahlung vor, einschließlich benutzerdefinierter Sprachmodelloptionen und dem kostenlosen Kontingent von Amazon Transcribe.Audio-Transkript mit Amazon Transcribe erstellen
Erfahren Sie, wie Sie mit Amazon Transcribe ein Texttranskript aufgezeichneter Audiodateien erstellen und dabei ein reales Anwendungsszenario zum Testen anhand Ihrer Anforderungen verwenden.
Erstellen einer Amazon-Transcribe-Streaming-App
Erfahren Sie, wie Sie eine App zum Aufzeichnen, Transkribieren und Übersetzen von Live-Audio in Echtzeit erstellen und die Ergebnisse direkt per E-Mail erhalten.
Die zweite Reihe von KI/ML-AWS-Servicepfaden bietet ausführliche Dokumentation, praktische Tutorials und Ressourcen für den Einstieg in die Services der Amazon-SageMaker-Familie.
-
SageMaker
-
SageMaker Autopilot
-
SageMaker Canvas
-
SageMaker Data Wrangler
-
SageMaker Ground Truth/Ground Truth Plus
-
SageMaker JumpStart
-
SageMaker Pipelines
-
SageMaker Studio
-
SageMaker
-
Funktionsweise von Amazon SageMaker
Verschaffen Sie sich einen Überblick über Machine Learning und die Funktionsweise von SageMaker.Erste Schritte mit Amazon SageMaker
Erfahren Sie, wie Sie einer Amazon-SageMaker-Domain beitreten und so Zugriff auf Amazon SageMaker Studio und RStudio auf SageMaker erhalten.
Leitfaden erkunden »Verwendung von Apache Spark mit Amazon SageMaker
Erfahren Sie, wie Sie Apache Spark für die Vorverarbeitung von Daten und SageMaker für Modelltraining und Hosting verwenden.
Leitfaden erkunden »Verwendung von Docker-Container zur Entwicklung von Modellen
Erfahren Sie, wie Amazon SageMaker im großem Umfang Docker-Container für Entwicklungs- und Laufzeitaufgaben einsetzt. Erfahren Sie, wie Sie vorgefertigte Docker-Images für die integrierten Algorithmen und die unterstützten Deep-Learning-Frameworks für Training und Inferenz bereitstellen.
Leitfaden erkunden »
Frameworks und Sprachen für Machine Learning
Erfahren Sie, wie Sie mithilfe des Amazon SageMaker Python SDK mit SageMaker arbeiten können. -
SageMaker Autopilot
-
Erstellen eines Amazon-SageMaker-Autopilot-Experiment für tabellarische Daten
Erfahren Sie, wie Sie ein Amazon-SageMaker-Autopilot-Experiment erstellen, um verschiedene Modellkandidaten in einem tabellarischen Datensatz zu untersuchen, vorverarbeiten und zu trainieren.Automatisches Erstellen von Machine-Learning-Modellen
Erfahren Sie, wie Sie mit Amazon SageMaker Autopilot automatisch ein ML-Modell erstellen, trainieren und optimieren und das Modell bereitstellen, um Prognosen zu generieren.
Modellierung mit Amazon SageMaker Autopilot anhand dieser Beispiel-Notebooks erkunden
Entdecken Sie Beispiel-Notebooks für Direktmarketing, Vorhersage der Kundenabwanderung und wie Sie Ihren eigenen Datenverarbeitungscode in Amazon SageMaker Autopilot integrieren. -
SageMaker Canvas
-
Erste Schritte mit Amazon SageMaker Canvas
Erfahren Sie, wie Sie mit der Verwendung von SageMaker Canvas beginnen.Generieren von Machine-Learning-Prognosen ohne Codierung
Dieses Tutorial erklärt, wie Sie Amazon SageMaker Canvas verwenden, um ML-Modelle zu entwickeln und genaue Prognosen zu generieren, ohne eine einzige Codezeile zu schreiben.
Erste Schritte mit dem Tutorial »Vertiefung in SageMaker Canvas
Lernen Sie SageMaker Canvas und seine visuellen, codierungsfreien ML-Funktionen näher kennen.Verwendung von Amazon SageMaker Canvas zur Erstellung Ihres ersten ML-Modells
Erfahren Sie, wie Sie mit Amazon SageMaker Canvas ein ML-Modell zur Bewertung der Kundenbindung basierend auf einer E-Mail-Kampagne für neue Produkte und Services erstellen. -
SageMaker Data Wrangler
-
Erste Schritte mit Amazon SageMaker Data Wrangler
Erfahren Sie, wie Sie SageMaker Data Wrangler einrichten und anschließend anhand eines vorhandenen Beispieldatensatzes eine exemplarische Vorgehensweise bereitstellen.
Leitfaden erkunden »Trainingsdaten für Machine Learning mit minimalem Code vorbereiten
Erfahren Sie, wie Sie mit Amazon SageMaker Data Wrangler Daten für ML vorbereiten.
Erste Schritte mit dem Tutorial »Intensiv-Workshop zu SageMaker Data Wrangler
Erfahren Sie, wie Sie geeignete Analysetypen auf Ihren Datensatz anwenden, um Anomalien und Probleme zu erkennen, die abgeleiteten Ergebnisse/Einblicke zur Formulierung von Abhilfemaßnahmen im Zuge von Transformationen Ihres Datensatzes verwenden. Außerdem können Sie mithilfe der von SageMaker Data Wrangler bereitgestellten Optionen zur Schnellmodellierung die richtige Auswahl und Reihenfolge von Transformationen testen. -
SageMaker Ground Truth/Ground Truth Plus
-
Erste Schritte mit Amazon Groud Truth
Erfahren Sie, wie Sie mit der Konsole einen Kennzeichnungsauftrag erstellen, öffentliche oder private Mitarbeiter zuweisen und den Kennzeichnungsauftrag an Ihre Mitarbeiter übermitteln. Erfahren Sie, wie Sie den Fortschritt eines Auftrags zur Kennzeichnung überwachen.
Beschriftung von Trainingsdaten für Machine Learning
Erfahren Sie, wie Sie einen Auftrag zur Kennzeichnung in Amazon SageMaker Ground Truth einrichten können, um Trainingsdaten für Ihr ML-Modell mit Anmerkungen zu versehen.
Erste Schritte mit Amazon Ground Truth Plus
Erfahren Sie, wie Sie die notwendigen Schritte durchführen, um ein Projekt von Amazon SageMaker Ground Truth Plus zu starten, Kennzeichnungen anzuzeigen und die Voraussetzungen für SageMaker Ground Truth Plus zu erfüllen.Erste Schritte mit Amazon Ground Truth
Sehen Sie sich an, wie Sie innerhalb weniger Minuten mit der Kennzeichnung Ihrer Daten über die SageMaker-Ground-Truth-Konsole beginnen können.
Amazon SageMaker Ground Truth Plus – Trainingsdatensätze ohne Code oder interne Ressourcen erstellen
Erfahren Sie mehr über Ground Truth Plus, einen schlüsselfertigen Service, der mithilfe von Expertenteams schnell hochwertige Trainingsdatensätze liefert und die Kosten um bis zu 40 Prozent senkt.
-
SageMaker JumpStart
-
Erste Schritte mit Machine Learning mit SageMaker JumpStart
Erkunden Sie die Lösungsvorlagen für SageMaker JumpStart, die eine Infrastruktur für gängige Anwendungsfälle einrichten, sowie ausführbare Beispiel-Notebooks für Machine Learning mit SageMaker.
Leitfaden erkunden »Schneller Einstieg in Ihrem Machine-Learning-Projekt mit Amazon SageMaker JumpStart
Erfahren Sie, wie Sie Ihr ML-Projekt mithilfe vorab trainierter Modelle und vorgefertigter Lösungen von Amazon SageMaker JumpStart beschleunigen können. Anschließend können Sie das ausgewählte Modell über Amazon-SageMaker-Studio-Notebooks bereitstellen.
Erhalten Sie praktische Erfahrungen mit Amazon SageMaker JumpStart in diesem Vertiefungs-Workshop
Erfahren Sie, wie die Low-Code-ML-Funktionen von Amazon SageMaker Data Wrangler, Autopilot und Jumpstart es einfacher machen, schneller zu experimentieren und hochpräzise Modelle in die Produktion zu bringen.
-
SageMaker Pipelines
-
Erste Schritte mit Amazon SageMaker Pipelines
Erfahren Sie, wie Sie durchgängige Workflows erstellen, die SageMaker-Aufträge verwalten und bereitstellen. SageMaker Pipelines verfügt über eine SageMaker-Python-SDK-Integration, sodass Sie jeden Schritt Ihrer Pipeline mithilfe einer Python-basierten Schnittstelle erstellen können.
Leitfaden erkunden »Machine-Learning-Workflows automatisieren
Erfahren Sie, wie Sie mithilfe von Amazon SageMaker Pipelines, Amazon SageMaker Model Registry und Amazon SageMaker Clarify durchgängige Workflows für Machine Learning (ML) erstellen und automatisieren.
Erste Schritte mit dem Tutorial »So erstellen Sie vollautomatisierte ML-Workflows mit Amazon SageMaker Pipelines
Erfahren Sie mehr über Amazon SageMaker Pipelines, den weltweit ersten ML CI/CD Service, der für jeden Entwickler und Datenwissenschaftler zugänglich ist. SageMaker Pipelines bringt CI/CD-Pipelines in ML und reduziert so die erforderliche Codierungszeit.
Video ansehen » -
SageMaker Studio
-
Erstellen und Trainieren eines Machine-Learning-Modells vor Ort
Erfahren Sie, wie Sie ein ML-Modell vor Ort in Ihrem Amazon-SageMaker-Studio-Notebook entwickeln und trainieren.Integration von SageMaker Studio mit EMR-Workshop
Erfahren Sie, wie Sie die verteilte Verarbeitung in großem Maßstab nutzen können, um Daten aufzubereiten und anschließend Machine-Learning-Modelle zu trainieren.
Die dritte Reihe von KI/ML-AWS-Servicepfaden bietet ausführliche Dokumentation, praktische Tutorials und Ressourcen für den Einstieg in Amazon Bedrock, Amazon CodeWhisperer, AWS Trainium, AWS Inferentia und Amazon Titan.
-
Amazon Bedrock
-
Amazon CodeWhisperer
-
AWS Trainium
-
AWS Inferentia
-
Amazon Titan
-
Amazon Bedrock
-
Überblick über Amazon Bedrock
Erfahren Sie, wie Amazon Bedrock Grundlagenmodelle von führenden KI-Startups und Amazon über eine API zur Verfügung stellt. Auf diese Weise können Sie aus einer großen Auswahl an FMs das Modell auswählen, das für Ihren Anwendungsfall am besten geeignet ist.
Ankündigen von neuen Tools für die Entwicklung mit generativer KI in AWS
Erfahren Sie mehr über die Hintergründe der Entwicklung von Amazon Bedrock, wie es in den breiteren AWS-Ansatz für KI und ML passt – und verschaffen Sie sich einen Überblick über die möglichen Nutzungen generativer AWS-Services für KI.
Generative KI entmystifizieren
In diesem Video diskutieren Dr. Werner Vogels, Amazon CTO, und Swami Sivasubramanian, AWS VP of database, analytics, and ML, über die breite Landschaft der generativen KI, warum diese kein Hype ist und wie AWS den Zugriff auf große Sprach- und Grundlagenmodelle demokratisiert.
-
Amazon CodeWhisperer
-
Was ist Amazon CodeWhisperer?
Machen Sie sich ein Bild davon, wie CodeWhisperer Sie bei der Erstellung von Code für routinemäßige oder zeitaufwändige, undifferenzierte Aufgaben, bei der Arbeit mit unbekannten APIs oder SDKs, bei der korrekten und effektiven Nutzung von AWS-APIs und bei anderen gängigen Codierungsszenarien wie dem Lesen und Schreiben von Dateien, der Image-Verarbeitung und dem Schreiben von Einheitstests unterstützen soll.
Erste Schritte mit Amazon CodeWhisperer
Erfahren Sie, wie Sie CodeWhisperer für die Verwendung mit jeder der vier möglichen IDEs einrichten: AWS Toolkit für JetBrains, AWS Toolkit für Visual Studio Code, Lambda und AWS Cloud9.
Amazon-CodeWhisperer-Workshop
Erfahren Sie, wie Sie eine vollwertige, ereignisgesteuerte, Serverless-Anwendung zur Bilderkennung erstellen. Mithilfe von Amazon CodeWhisperer schreiben Sie Ihren eigenen Code, der auf AWS Lambda ausgeführt wird, um mit Amazon Rekognition, Amazon DynamoDB, Amazon SNS, Amazon SQS, Amazon S3 und HTTP-APIs von Drittanbietern zu interagieren und eine Bilderkennung durchzuführen.
-
AWS Trainium
-
Skalierung verteilter Trainings mit AWS Trainium und Amazon EKS
Erfahren Sie, wie Sie von der allgemeinen Verfügbarkeit von Amazon-EC2-Trn1-Instances, die von AWS Trainium unterstützt wird, profitieren können – einem speziell entwickelten ML-Beschleuniger, der optimiert wurde, um eine leistungsstarke, kostengünstige und stark skalierbare Plattform für das Training von Deep-Learning-Modellen in der Cloud bereitzustellen.
Überblick über AWS Trainium
Erfahren Sie mehr über AWS Trainium, den Machine Learning (ML)-Beschleuniger der zweiten Generation, den AWS speziell für das Deep-Learning-Training von Modellen mit mehr als 100 Milliarden Parametern entwickelt hat. Jede Amazon Elastic Compute Cloud (EC2)-Trn1-Instance stellt bis zu 16 AWS-Trainium-Beschleuniger bereit, um eine leistungsstarke und kostengünstige Lösung für Deep-Learning-Training (DL) in der Cloud bereitzustellen.
Empfohlene Trainium-Instances
Erfahren Sie, wie AWS-Trainium-Instances konzipiert wurden, um hohe Leistung und Kosteneffizienz für Deep-Learning-Modellinferenz-Workloads bereitzustellen.
-
AWS Inferentia
-
Überblick über AWS Inferentia
Erfahren Sie, wie Beschleuniger von AWS entwickelt werden, um für Ihre Deep Learning (DL)-Inferenzanwendungen hohe Leistung zu niedrigsten Kosten zu liefern.
AWS Inferentia2 basiert auf AWS Inferentia1 auf und bietet einen viermal höheren Durchsatz und eine zehnmal geringere Latenz
Finden Sie heraus, wofür AWS Inferentia2 optimiert ist – und erfahren Sie, wie es von Grund auf so konzipiert wurde, dass es eine höhere Leistung bietet und gleichzeitig die Kosten für LLMs und generative KI-Inferenz senkt.
Machine-Learning-Inferenz mithilfe von AWS Inferentia
Erfahren Sie, wie Sie einen Amazon-EKS-Cluster mit Knoten erstellen, auf denen Amazon-EC2-Inf1-Instances ausgeführt werden, und (optional) eine Beispielanwendung bereitstellen. Amazon-EC2-Inf1-Instances werden von AWS-Inferentia-Chips unterstützt, die von AWS speziell entwickelt wurden, um hohe Leistung und niedrigste Kosten für Inferenzen in der Cloud bereitzustellen.
-
Amazon Titan
-
Überblick über Amazon Titan
Erfahren Sie, wie Amazon Titan FMs anhand großer Datensätze vorab trainiert werden, was sie zu leistungsstarken Allzweckmodellen macht. Erfahren Sie, wie Sie sie unverändert oder privat verwenden können, um sie mit Ihren eigenen Daten für eine bestimmte Aufgabe anzupassen, ohne große Datenmengen mit Anmerkungen zu versehen.
Erkunden
Diese Referenz-Architekturdiagramme zeigen Beispiele für genutzte AWS-KI- und ML-Services.
Lesen Sie Whitepapers, die Ihnen den Einstieg erleichtern und lernen Sie bewährte Methoden bei der Auswahl und Nutzung von KI/ML-Services kennen.
Erkunden Sie geprüfte Lösungen und Architekturleitfäden für gängige Anwendungsfälle für KI- und ML-Services.