Escolha os serviços, as estruturas e os modelos de base de IA e de ML mais adequados para apoiar seu trabalho
Introdução
Basicamente, o machine learning (ML) foi criado para fornecer ferramentas e serviços digitais para aprender com os dados, identificar padrões, fazer previsões e, em seguida, agir de acordo com essas previsões. Quase todos os sistemas de inteligência artificial (IA) atuais são criados usando ML. O ML usa grandes quantidades de dados para criar e validar a lógica de decisão. Essa lógica de decisão forma a base do “modelo” de IA.
Um subconjunto de machine learning em rápido crescimento é a IA generativa, que é alimentada por grandes modelos pré-treinados em um vasto conjunto de dados, comumente chamados de modelos de base (FMs). Os serviços da AWS baseados em IA generativa incluem:
- Amazon Bedrock (que fornece uma maneira de você criar e escalar aplicações baseadas em IA generativa usando FMs)
- Amazon CodeWhisperer (um companheiro de programação de IA que gera sugestões de código em tempo real com base em seus comentários em linguagem natural e em qualquer código anterior em seu ambiente de desenvolvimento integrado)
Este guia de decisão ajudará você a fazer as perguntas certas, avaliar seus critérios e problemas comerciais e determinar quais serviços são mais adequados às suas necessidades.
Em menos de dois minutos, o Dr. Werner Vogels, CTO da Amazon, explica como a IA generativa funciona e como você pode usá-la. Este vídeo é parte de uma discussão mais longa entre o Dr. Vogels e Swami Sivasubramanian, vice-presidente de banco de dados, análise e machine learning da AWS, falam sobre o amplo cenário da IA generativa, por que não é exagero e como a AWS está democratizando o acesso a grandes modelos de linguagem e base.
Hora de ler
25 minutos
Objetivo
Ajude a determinar quais serviços de ML da AWS são mais adequados às suas necessidades.
Nível
Iniciante
Data da última atualização
26 de julho de 2023
Serviços cobertos
Mais guias de decisão sobre
Entender
Além disso, a AWS oferece o seguinte hardware especializado e acelerado para treinamento e inferência de ML de alto desempenho.
- As instâncias P4d do Amazon EC2 são equipadas com GPUs NVIDIA A100 Tensor Core, que são adequadas para tarefas de treinamento e inferência em machine learning. O AWS Trainium é o acelerador de machine ML de segunda geração que a AWS criou especificamente para treinamento de aprendizado profundo de mais de 100 bilhões de modelos de parâmetros.
- As instâncias Inf2 do Amazon EC2 baseadas no AWS Inferentia2 foram criadas para oferecer alto desempenho com o menor custo no Amazon EC2 para sua inferência de DL e aplicações de IA generativa.
Considerar
Ao resolver um problema de negócios com os serviços de ML da AWS, a consideração de vários critérios-chave pode ajudar a garantir o sucesso. A seção a seguir descreve alguns dos principais critérios a serem considerados ao escolher um serviço de ML.
-
Definição do problema
-
Algoritmo de ML
-
Segurança
-
Latência
-
Precisão
-
AWS e IA responsável
-
A primeira etapa do ciclo de vida do ML é enquadrar o problema comercial. Entender o problema que você está tentando resolver é essencial para escolher o serviço de ML da AWS adequado, pois serviços diferentes são projetados para resolver problemas diferentes. Também é importante determinar se o ML é a melhor opção para seu problema de negócios.
Depois de determinar que o ML é a melhor opção, você pode começar escolhendo entre uma variedade de serviços de IA da AWS criados especificamente (em áreas como fala, visão e documentos).
O Amazon SageMaker fornece infraestrutura totalmente gerenciada se você precisar criar e treinar seus próprios modelos. A AWS oferece uma variedade de estruturas avançadas de ML e opções de infraestrutura para os casos em que você precisa de modelos de ML altamente personalizados e especializados. A AWS também oferece um amplo conjunto de modelos básicos muito usados para criar novas aplicações com IA generativa.
-
A escolha do algoritmo de ML para o problema comercial que você está tentando resolver depende do tipo de dados com os quais você está trabalhando, bem como dos resultados desejados. As informações a seguir descrevem como cada uma das principais categorias de serviços de AI/ML da AWS capacita você a trabalhar com seus algoritmos:
- Serviços especializados de IA: esses serviços oferecem uma capacidade limitada de personalizar o algoritmo de ML, pois são modelos pré-treinados e otimizados para tarefas específicas. Normalmente, você pode personalizar os dados de entrada e alguns parâmetros, mas não tem acesso aos modelos de ML subjacentes nem à capacidade de criar seus próprios modelos.
- Amazon SageMaker: esse serviço oferece a maior flexibilidade e controle sobre o algoritmo de ML. Você pode usar o SageMaker para criar modelos personalizados usando seus próprios algoritmos e estruturas, ou usar modelos e algoritmos pré-criados fornecidos pela AWS. Isso permite um alto grau de personalização e controle sobre o processo de ML.
- Estruturas e infraestrutura de ML de nível inferior: esses serviços oferecem a maior flexibilidade e controle sobre o algoritmo de ML. Você pode usar esses serviços para criar modelos de ML altamente personalizados usando seus próprios algoritmos e estruturas. No entanto, o uso desses serviços requer uma experiência significativa em ML e pode não ser viável para todos os casos de uso.
-
Se você precisar de um endpoint privado em sua VPC, as opções variarão com base na camada de serviços de ML da AWS que você estiver usando. Isso inclui:
- Serviços especializados de IA: atualmente, a maioria dos serviços especializados de IA não oferece suporte a endpoints privados em VPCs. No entanto, o Amazon Rekognition Custom Labels e o Amazon Comprehend Custom podem ser acessados usando endpoints da VPC.
- Principais serviços de IA: Amazon Translate, Amazon Transcribe e Amazon Comprehend oferecem suporte a endpoints da VPC.
- Amazon SageMaker: o SageMaker fornece suporte integrado para endpoints da VPC, permitindo que você implante os modelos treinados como um endpoint acessível somente de dentro da VPC.
- Estruturas e infraestrutura de ML de nível inferior: implante seus modelos em instâncias do Amazon EC2 ou em contêineres dentro da VPC, fornecendo controle total sobre a configuração da rede.
-
Serviços de IA de alto nível, como Amazon Rekognition e Amazon Transcribe, foram projetados para lidar com uma ampla variedade de casos de uso e oferecer alto desempenho em termos de velocidade. No entanto, eles podem não atender a determinados requisitos de latência.
Se você estiver usando estruturas e a infraestrutura de ML de nível inferior, recomendamos usar o Amazon SageMaker. Essa opção geralmente é mais rápida do que criar modelos personalizados devido ao serviço totalmente gerenciado e às opções de implantação otimizadas. Embora um modelo personalizado altamente otimizado possa superar o SageMaker, ele exigirá conhecimentos e recursos significativos para ser criado.
-
A precisão dos serviços de ML da AWS varia de acordo com o caso de uso específico e o nível de personalização exigido. Os serviços de IA de alto nível, como o Amazon Rekognition, são criados com base em modelos pré-treinados que foram otimizados para tarefas específicas e oferecem alta precisão em muitos casos de uso.
Em alguns casos, você pode optar por usar o Amazon SageMaker, que fornece uma plataforma mais flexível e personalizável para criar e treinar modelos personalizados de ML. Ao criar seus próprios modelos, você poderá obter uma precisão ainda maior do que a possível com modelos pré-treinados.
Você também pode optar por usar estruturas e infraestruturas de ML, como TensorFlow e Apache MXNet, para criar modelos altamente personalizados que ofereçam a maior precisão possível para seu caso de uso específico.
-
A AWS cria modelos de base (FMs) com a IA responsável em mente em cada estágio do processo de desenvolvimento. Em todo o projeto, desenvolvimento, implantação e operações, consideramos uma série de fatores, incluindo:
- Precisão (até que ponto um resumo corresponde ao documento subjacente; se uma biografia está factualmente correta)
- Equidade (se os resultados tratam grupos demográficos de forma semelhante)
- Considerações sobre propriedade intelectual e direitos autorais
- Uso apropriado (filtrar solicitações de usuários para aconselhamento jurídico, diagnósticos médicos ou atividades ilegais)
- Toxicidade (discurso de ódio, palavrões e insultos)
- Privacidade (proteger informações pessoais e solicitações do cliente)
A AWS cria soluções para abordar esses problemas nos processos usados para adquirir dados de treinamento, nos próprios FMs e na tecnologia usada para pré-processar as solicitações do usuário e as saídas pós-processamento.
Escolher
Agora que você conhece os critérios pelos quais avaliará suas opções de serviço de ML, está tudo pronto para você escolher qual serviço de ML da AWS é ideal para suas necessidades organizacionais.
A tabela a seguir destaca quais serviços de ML são otimizados para quais circunstâncias. Use-a para ajudar a determinar o serviço de ML da AWS mais adequado ao seu caso de uso.
O Amazon Comprehend permite que você execute tarefas de processamento de linguagem natural, como análise de sentimentos, reconhecimento de entidades, modelagem de tópicos e detecção de linguagem, em seus dados de texto.
O Amazon Lex ajuda você a criar chatbots e assistentes de voz que podem interagir com os usuários em uma interface de linguagem natural. Ele fornece recursos predefinidos de gerenciamento de diálogos, compreensão de idiomas e reconhecimento de fala.
Use o Amazon Polly para converter texto em fala realista, facilitando a criação de aplicações de serviços habilitados para voz.
O Amazon Rekognition foi criado para permitir que você adicione análises de imagens e vídeos às suas aplicações. Basta fornecer uma imagem ou vídeo à API do Amazon Rekognition e o serviço identificará objetos, pessoas, texto, cenas e atividades. O serviço também pode detectar qualquer conteúdo inadequado.
O Amazon Textract ajuda você a extrair texto e dados de documentos, formulários e tabelas digitalizados, facilitando o armazenamento, a análise e o gerenciamento desses dados.
O Amazon Transcribe permite que os clientes transcrevam automaticamente gravações de áudio e vídeo em texto. Isso pode economizar tempo e esforço em comparação com a transcrição manual.
Use esse serviço para traduzir texto de um idioma para outro em tempo real. Isso é muito útil se sua empresa opera em vários países ou precisa se comunicar com pessoas que falam idiomas diferentes.
O Amazon Bedrock é um serviço totalmente gerenciado que cria modelos de base das principais startups de IA e da Amazon por meio de uma API, para que você possa escolher entre uma ampla variedade desses modelos para encontrar o mais apropriado ao seu caso de uso.
O Amazon CodeWhisperer é um companheiro de codificação de IA em tempo real que ajuda na criação de código para tarefas rotineiras ou demoradas e indiferenciadas, trabalhando com APIs ou SDKs desconhecidos, fazendo uso correto e eficaz das APIs da AWS e outros cenários comuns de codificação, como leitura e gravação de arquivos, processamento de imagens e gravação de testes unitários.
O Amazon SageMaker Autopilot foi criado para reduzir o trabalho pesado da criação de modelos de ML. Você simplesmente fornece um conjunto de dados tabular e seleciona a coluna de destino para prever, e o SageMaker Autopilot explorará automaticamente as diferentes soluções para encontrar o melhor modelo. Em seguida, você pode implantar diretamente o modelo na produção com apenas um clique ou repetir as soluções recomendadas para melhorar ainda mais a qualidade do modelo.
O Amazon SageMaker Canvas oferece a capacidade de usar machine learning para gerar previsões sem precisar escrever nenhum código.
O Amazon SageMaker Data Wrangler reduz o tempo necessário para agregar e preparar dados tabulares e de imagem para ML. Com o SageMaker Data Wrangler, é possível simplificar o processo de preparação de dados e engenharia de atributos, além de executar cada etapa do fluxo de trabalho de preparação de dados (incluindo seleção, limpeza, exploração, visualização e processamento de dados em grande escala) em uma única interface visual.
O SageMaker Ground Truth é um serviço gerenciado para rotular dados a fim de treinar e aprimorar os modelos de machine learning. Ele fornece uma maneira altamente precisa e eficiente de rotular grandes conjuntos de dados usando uma combinação de anotadores humanos e algoritmos de machine learning. O SageMaker Ground Truth oferece suporte a uma ampla variedade de tipos de dados, incluindo texto, imagem, vídeo e áudio, e se integra perfeitamente a outros serviços do SageMaker para fluxos de trabalho de machine learning de ponta a ponta.
O SageMaker JumpStart fornece modelos pré-treinados de código aberto para uma ampla variedade de tipos de problemas para ajudar você a começar a usar o machine learning. Você pode treinar e ajustar esses modelos de forma incremental antes da implantação. O JumpStart também fornece modelos de solução que configuram a infraestrutura para casos de uso comuns e notebooks de exemplo executáveis para machine learning com o SageMaker.
Com o Amazon SageMaker Pipelines, você pode criar fluxos de trabalho de ML com um descomplicado Python SDK, e então visualizar e gerenciar seu fluxo de trabalho usando o Amazon SageMaker Studio. O Amazon SageMaker Pipelines permite que você armazene e reutilize as etapas do fluxo de trabalho que você cria nos SageMaker Pipelines.
Um ambiente de desenvolvimento integrado (IDE) completo que permite aos desenvolvedores criar, treinar e implantar modelos de machine learning em grande escala. Ele fornece uma única interface baseada na Web para gerenciar todo o ciclo de vida do machine learning, desde a preparação dos dados e o treinamento do modelo até a implantação e o monitoramento. O SageMaker Studio também oferece suporte a ferramentas muito usadas, como cadernos Jupyter, Git e TensorFlow, e oferece um conjunto de algoritmos pré-criados para casos de uso comuns.
Laboratório do SageMaker Studio
O Amazon SageMaker Studio Lab é um IDE baseado em nuvem para aprender e experimentar machine learning usando cadernos Jupyter pré-criados. Ele inclui uma variedade de cadernos pré-criados que abordam tópicos como reconhecimento de imagem, processamento de linguagem natural e detecção de anomalias.
O Apache MXNet é uma estrutura de aprendizado profundo de código aberto que suporta várias linguagens de programação, incluindo Python, Scala e R. Ele é conhecido por sua escalabilidade e velocidade e oferece uma variedade de APIs de alto nível para criar e treinar redes neurais, bem como APIs de baixo nível para usuários avançados.
Hugging Face no Amazon SageMaker
O Hugging Face no Amazon SageMaker é uma biblioteca de código aberto para processamento de linguagem natural (PLN) que fornece uma ampla variedade de modelos e ferramentas pré-treinados para trabalhar com dados de texto. Ele é conhecido pela sua facilidade de uso e alto desempenho e é amplamente usado para tarefas como classificação de texto, análise de sentimentos e tradução de idiomas.
O PyTorch na AWS é uma estrutura de machine learning de código aberto que oferece gráficos de computação dinâmicos e diferenciação automática para criar e treinar redes neurais. O PyTorch é conhecido por sua facilidade de uso e flexibilidade e tem uma grande e ativa comunidade de desenvolvedores contribuindo para seu desenvolvimento.
O TensorFlow é uma estrutura de machine learning de código aberto desenvolvida pelo Google que é amplamente usada para criar e treinar redes neurais. Ele é conhecido por sua escalabilidade, velocidade e flexibilidade, e suporta uma variedade de linguagens de programação, incluindo Python, C++ e Java. O TensorFlow oferece uma ampla variedade de modelos e ferramentas pré-criados para processamento de imagens e textos, bem como APIs de baixo nível para usuários avançados que precisam de maior controle sobre seus modelos.
AWS Inferentia e AWS Inferentia2
O acelerador do AWS Inferentia de primeira geração impulsiona as instâncias Inf1 do Amazon Elastic Compute Cloud (Amazon EC2), que fornecem um throughput até 2,3 vezes maior e um custo por inferência até 70% menor em comparação com as instâncias do Amazon EC2. O acelerador do AWS Inferentia2 melhora a primeira geração do AWS Inferentia. O Inferentia2 oferece throughput até 4 vezes maior e latência até 10 vezes menor em comparação com o Inferentia.
O AWS Trainium é o acelerador de machine learning (ML) de segunda geração que a AWS criou especificamente para treinamento de aprendizado profundo de mais de 100 bilhões de modelos de parâmetros. Cada instância Trn1 do Amazon Elastic Compute Cloud (EC2) implanta até 16 aceleradores do AWS Trainium para uso em treinamento de aprendizado profundo (DL) na nuvem.
Usar
Agora você deve ter uma compreensão clara dos critérios que precisa aplicar ao escolher um serviço de ML da AWS. Agora você pode selecionar quais serviços de AI/ML da AWS são otimizados para suas necessidades comerciais.
Para explorar como usar e saber mais sobre os serviços que você escolheu, fornecemos três conjuntos de roteiros para explorar como cada serviço funciona. O primeiro conjunto de roteiros fornece documentação detalhada, tutoriais práticos e recursos para começar a usar o Amazon Comprehend, o Amazon Textract, o Amazon Translate, o Amazon Lex, o Amazon Polly, o Amazon Rekognition e o Amazon Transcribe.
-
Amazon Comprehend
-
Amazon Textract
-
Amazon Translate
-
Amazon Lex
-
Amazon Polly
-
Amazon Rekognition
-
Amazon Transcribe
-
Amazon Comprehend
-
Comece a usar o Amazon Comprehend
Use o console do Amazon Comprehend para criar e executar um trabalho assíncrono de detecção de entidades.
Comece o tutorial »Insights da análise em textos com o Amazon Comprehend
Aprenda a usar o Amazon Comprehend para analisar e obter insights de textos.
Preços do Amazon Comprehend
Explore informações sobre preços e exemplos do Amazon Comprehend. -
Amazon Textract
-
Conceitos básicos do Amazon Textract
Saiba como o Amazon Textract pode ser usado com texto formatado para detectar palavras e linhas de palavras localizadas próximas umas das outras, bem como analisar um documento em busca de itens como texto relacionado, tabelas, pares de valores-chave e elementos de seleção.
Extrair texto e dados estruturados com o Amazon Textract
Aprenda a usar o Amazon Textract para extrair texto e dados estruturados de documentos.
AWS Power Hour: Machine Learning
Mergulhe no Amazon Textract neste episódio, passe algum tempo no Console de Gerenciamento da AWS e analise exemplos de código que ajudarão você a entender como aproveitar ao máximo as APIs de serviços.
-
Amazon Translate
-
Comece a usar o Amazon Translate usando o console
A maneira mais fácil de começar a usar o Amazon Translate é usar o console para traduzir algum texto. Aprenda a traduzir até 10.000 caracteres usando o console.
Traduzir textos entre idiomas na nuvem
Neste exemplo de tutorial, como integrante de uma empresa internacional de fabricação de malas, você precisa entender o que os clientes dizem sobre seu produto em análises no idioma do mercado local: francês.
Preços do Amazon Translate
Explore os preços do Amazon Translate, incluindo o nível gratuito, que fornece 2 milhões de caracteres por mês durante 12 meses.
Explore o guia »
Acelere fluxos de trabalho multilíngues com uma solução de tradução personalizável
Explore como criar uma solução de tradução unificada com atributos de personalização usando o Amazon Translate e outros serviços da AWS.
-
Amazon Lex
-
Guia do desenvolvedor do Amazon Lex V2
Explore informações sobre como começar, como funciona e informações sobre preços do Amazon Lex V2.
Explore o guia »Introdução ao Amazon Lex
Apresentamos o serviço conversacional Amazon Lex e damos alguns exemplos que mostram como criar um bot e implantá-lo em diferentes serviços de chat.Faça o curso » (é necessário fazer login)
Explorar a IA generativa em experiências de conversação
Explore o uso da IA generativa em experiências de conversação.
-
Amazon Polly
-
O que é o Amazon Polly?
Explore uma visão geral completa do serviço de nuvem que converte texto em fala realista e pode ser usado para desenvolver aplicações para aumentar o engajamento e a acessibilidade do cliente.Destaque o texto enquanto ele estiver sendo falado usando o Amazon Polly
Apresentamos abordagens para destacar o texto à medida que estiver sendo falado para adicionar recursos visuais ao áudio em livros, sites, blogs e outras experiências digitais.Crie áudio para conteúdo em vários idiomas com a mesma persona de voz TTS no Amazon Polly
Explicamos a conversão de texto em fala neural (NTTS) e discutimos como um amplo portfólio de vozes disponíveis, que fornece uma variedade de locutores distintos nos idiomas compatíveis, pode funcionar para você.
-
Amazon Rekognition
-
What is Amazon Rekognition?
Explore como você pode usar esse serviço para adicionar análise de imagem e vídeo às suas aplicações.Reconhecimento prático: análise automatizada de imagens e vídeos
Saiba como o reconhecimento facial funciona com streaming de vídeo, junto com exemplos de código e pontos-chave em um ritmo autoguiado.
Perguntas frequentes sobre o Amazon Rekognition
Aprenda os conceitos básicos do Amazon Rekognition e como ele pode ajudar você a melhorar seu aprendizado profundo e analisar visualmente as aplicações. -
Amazon Transcribe
-
What is Amazon Transcribe?
Explore o serviço de reconhecimento automático de fala da AWS usando ML para converter áudio em texto. Saiba como usar esse serviço como uma transcrição independente ou adicionar o recurso de conversão de fala em texto a qualquer aplicação.Preços do Amazon Transcribe
Apresentamos a transcrição paga conforme o uso da AWS, incluindo opções de modelos de linguagem personalizados e o nível gratuito do Amazon Transcribe.Crie uma transcrição de áudio com o Amazon Transcribe
Aprenda a usar o Amazon Transcribe para criar uma transcrição de texto de arquivos de áudio gravados usando um cenário de caso de uso real para testar suas necessidades.
Crie uma aplicação de streaming do Amazon Transcribe
Aprenda a criar uma aplicação para gravar, transcrever e traduzir áudio ao vivo em tempo real, com os resultados enviados diretamente para você.
O segundo conjunto de roteiros de serviços de AI/ML da AWS fornece documentação detalhada, tutoriais práticos e recursos para começar a usar os serviços da família Amazon SageMaker.
-
SageMaker
-
SageMaker Autopilot
-
SageMaker Canvas
-
SageMaker Data Wrangler
-
SageMaker Ground Truth/Ground Truth Plus
-
SageMaker JumpStart
-
SageMaker Pipelines
-
SageMaker Studio
-
SageMaker
-
Como o Amazon SageMaker funciona
Explore a visão geral do machine learning e como o SageMaker funciona.Conceitos básicos do Amazon SageMaker
Saiba como participar de um domínio do Amazon SageMaker, oferecendo acesso ao Amazon SageMaker Studio e ao RStudio no SageMaker.
Explore o guia »Use o Apache Spark com o Amazon SageMaker
Aprenda a usar o Apache Spark para pré-processamento de dados e o SageMaker para treinamento e hospedagem de modelos.
Explore o guia »Use contêineres Docker para criar modelos
Explore como o Amazon SageMaker faz uso extensivo de contêineres Docker para tarefas de criação e runtime. Saiba como implantar as imagens do Docker pré-criadas para os algoritmos integrados e as estruturas de aprendizado profundo compatíveis usadas para treinamento e inferência.
Explore o guia »
Estruturas e linguagens do machine learning
Saiba como começar a usar o SageMaker usando o Amazon SageMaker Python SDK. -
SageMaker Autopilot
-
Crie um experimento do Amazon SageMaker Autopilot para dados tabulares
Aprenda a criar um experimento do Amazon SageMaker Autopilot para explorar, pré-processar e treinar vários candidatos a modelos em um conjunto de dados tabular.Crie modelos de machine learning automaticamente
Aprenda a usar o Amazon SageMaker Autopilot para criar, treinar e ajustar de maneira automática um modelo ML, além de implantar o modelo para que ele realize previsões.
Explore a modelagem com o Amazon SageMaker Autopilot com esses exemplos de cadernos
Explore exemplos de cadernos para marketing direto, previsão de rotatividade de clientes e como trazer seu próprio código de processamento de dados para o Amazon SageMaker Autopilot. -
SageMaker Canvas
-
Começar a usar o Amazon SageMaker Canvas
Saiba como começar a usar o SageMaker Canvas.Gere previsões de machine learning sem programação de código
Este tutorial explica como o Amazon SageMaker Canvas cria modelos de ML e gera previsões precisas sem a necessidade de programar uma única linha de código.
Comece o tutorial »Mergulhe mais fundo no SageMaker Canvas
Explore uma visão aprofundada do SageMaker Canvas e seus recursos visuais de ML sem código.Use o Amazon SageMaker Canvas para criar seu primeiro modelo de ML
Aprenda a usar o Amazon SageMaker Canvas para criar um modelo de ML para avaliar a retenção de clientes, com base em uma campanha de e-mail para novos produtos e serviços. -
SageMaker Data Wrangler
-
Conceitos básicos do Amazon SageMaker Data Wrangler
Explore como configurar o SageMaker Data Wrangler e, em seguida, forneça um passo a passo usando um exemplo de conjunto de dados existente.
Explore o guia »Prepare dados de treinamento para machine learning com código mínimo
Aprenda a preparar dados para ML usando o Amazon SageMaker Data Wrangler.
Comece o tutorial »Workshop de demonstração de aprofundamento do SageMaker Data Wrangler
Aprenda a aplicar os tipos de análise apropriados em seu conjunto de dados para detectar anomalias e problemas, usar os resultados/insights derivados para formular ações corretivas durante as transformações em seu conjunto de dados e testar a escolha e a sequência corretas de transformações usando as opções de modelagem rápida fornecidas pelo SageMaker Data Wrangler. -
SageMaker Ground Truth/Ground Truth Plus
-
Conceitos básicos do Amazon Groud Truth
Explore como usar o console para criar um trabalho de rotulagem, atribuir uma força de trabalho pública ou privada e enviar o trabalho de rotulagem para sua força de trabalho. Aprenda a monitorar o progresso de um trabalho de rotulagem.
Rotule dados de treinamento para machine learning
Saiba como configurar um trabalho de rotulagem no Amazon SageMaker Ground Truth para anotar dados de treinamento em seu modelo de ML.
Conceitos básicos do Amazon Ground Truth Plus
Explore como concluir as etapas necessárias para iniciar um projeto do Amazon SageMaker Ground Truth Plus, analisar rótulos e satisfazer os pré-requisitos do SageMaker Ground Truth Plus.Comece a usar o Amazon Ground Truth
Veja como começar a rotular os dados em minutos por meio do console SageMaker Ground Truth.
Amazon SageMaker Ground Truth Plus: crie conjuntos de dados de treinamento sem código ou recursos internos
Conheça o Ground Truth Plus, um serviço pronto para uso que usa uma força de trabalho especializada para fornecer conjuntos de dados de treinamento de alta qualidade com rapidez e reduzir os custos em até 40%.
-
SageMaker JumpStart
-
Comece a usar o machine learning com o SageMaker JumpStart
Explore os modelos da solução SageMaker JumpStart que configuram a infraestrutura para casos de uso comuns e exemplos de notebooks executáveis para machine learning com o SageMaker.
Explore o guia »Comece seu projeto de machine learning rapidamente usando o Amazon SageMaker JumpStart
Saiba como acelerar seu projeto de ML usando modelos pré-treinados e soluções pré-criadas oferecidas pelo Amazon SageMaker JumpStart. Em seguida, você poderá implantar o modelo selecionado utilizando os cadernos do Amazon SageMaker Studio.
Experimente o Amazon SageMaker JumpStart com este workshop de Imersão de um dia
Saiba como os recursos de ML de baixo código encontrados no Amazon SageMaker Data Wrangler, no Autopilot e no Jumpstart facilitam a experimentação mais rápida e trazem modelos altamente precisos para a produção.
-
SageMaker Pipelines
-
Conceitos básicos do Amazon SageMaker Pipelines
Saiba como criar fluxos de trabalho de ponta a ponta que gerenciam e implantam trabalhos do SageMaker. O SageMaker Pipelines vem com a integração do SDK do SageMaker para Python, para que você possa criar cada etapa do seu pipeline usando uma interface baseada em Python.
Explore o guia »Automatize os fluxos de trabalho de machine learning
Aprenda a criar e automatizar fluxos de trabalho completos de machine learning (ML) usando o Amazon SageMaker Pipelines, o Registro de Modelos do Amazon SageMaker e o Amazon SageMaker Clarify.
Comece o tutorial »Como criar fluxos de trabalho de ML totalmente automatizados com o Amazon SageMaker Pipelines
Saiba mais sobre o Amazon SageMaker Pipelines, o primeiro serviço de ML CI/CD do mundo projetado para ser acessível a todos os desenvolvedores e cientistas de dados. O SageMaker Pipelines traz pipelines de CI/CD para o ML, reduzindo o tempo de codificação necessário.
Assista ao vídeo » -
SageMaker Studio
-
Crie e treine um modelo de machine learning localmente
Aprenda a criar e treinar um modelo de ML no local em seu caderno do Amazon SageMaker Studio.Workshop de integração do SageMaker Studio com o EMR
Aprenda a utilizar o processamento distribuído em grande escala para preparar dados e, posteriormente, treinar modelos de machine learning.
O terceiro conjunto de roteiros de serviços de AI/ML da AWS fornece documentação detalhada, tutoriais práticos e recursos para começar a usar o Amazon Bedrock, o Amazon CodeWhisperer, o AWS Trainium, o AWS Inferentia e o Amazon Titan.
-
Amazon Bedrock
-
Amazon CodeWhisperer
-
AWS Trainium
-
AWS Inferentia
-
Amazon Titan
-
Amazon Bedrock
-
Visão geral do Amazon Bedrock
Entenda como o Amazon Bedrock disponibiliza os modelos de base das principais startups de IA e da Amazon por meio de uma API, para que você possa escolher entre uma ampla variedade desses modelos para encontrar o mais apropriado ao seu caso de uso.
Anúncio de novas ferramentas de criação com IA generativa na AWS
Entenda o histórico do desenvolvimento do Amazon Bedrock, como ele se encaixa na abordagem mais ampla da AWS para IA e ML e forneça uma visão geral dos possíveis usos dos serviços de IA generativa da AWS.
Desmistificação da IA generativa
Neste vídeo, o Dr. Werner Vogels, CTO da Amazon, e Swami Sivasubramanian, vice-presidente de banco de dados, análise e ML da AWS, discutem o amplo cenário da IA generativa, por que não é exagero e como a AWS está democratizando o acesso a grandes modelos de base e de linguagem.
-
Amazon CodeWhisperer
-
O que é o Amazon CodeWhisperer?
Entenda como o CodeWhisperer foi projetado para ajudar na criação de código para tarefas rotineiras demoradas e indiferenciadas, trabalhando com APIs ou SDKs desconhecidos, fazendo uso correto e eficaz das APIs da AWS e outros cenários comuns de codificação, como leitura e gravação de arquivos, processamento de imagens e gravação de testes unitários.
Conceitos básicos do Amazon CodeWhisperer
Aprenda a configurar o CodeWhisperer para uso com cada um dos quatro IDEs possíveis: Kit de ferramentas da AWS para JetBrains, Kit de ferramentas da AWS para Visual Studio Code, Lambda e AWS Cloud9.
Workshop sobre o Amazon CodeWhisperer
Aprenda a criar uma aplicação completa, orientada por eventos e sem servidor para reconhecimento de imagens. Com a ajuda do Amazon CodeWhisperer, você escreverá seu próprio código que é executado no AWS Lambda para interagir com o Amazon Rekognition, Amazon DynamoDB, Amazon SNS, Amazon SQS, Amazon S3 e APIs HTTP de terceiros para realizar o reconhecimento de imagens.
-
AWS Trainium
-
Escalar o treinamento distribuído com o AWS Trainium e o Amazon EKS
Saiba como você pode se beneficiar da disponibilidade geral das instâncias Trn1 do Amazon EC2 com a tecnologia AWS Trainium, um acelerador de ML desenvolvido especificamente e otimizado para fornecer uma plataforma de alto desempenho, econômica e altamente escalável para treinar modelos de aprendizado profundo na nuvem.
Visão geral do AWS Trainium
Conheça o AWS Trainium, o acelerador de machine learning (ML) de segunda geração que a AWS criou especificamente para treinamento de aprendizado profundo de mais de 100 bilhões de modelos de parâmetros. Cada instância Trn1 do Amazon Elastic Compute Cloud (EC2) implanta até 16 aceleradores AWS Trainium para oferecer uma solução de alto desempenho e baixo custo para treinamento de aprendizado profundo (DL) na nuvem.
Instâncias recomendadas do Trainium
Explore como as instâncias do AWS Trainium foram criadas para fornecer alto desempenho e eficiência de custos para workloads de inferência de modelos de aprendizado profundo.
-
AWS Inferentia
-
Visão geral da AWS Inferentia
Entenda como os aceleradores foram criados pela AWS para gerar alto desempenho ao menor custo para as aplicações de inferência de aprendizado profundo (DL).
O AWS Inferentia2 se baseia no AWS Inferentia1, oferecendo uma throughput 4 vezes maior e uma latência 10 vezes menor
Entenda para que o AWS Inferentia2 é otimizado e explore como ele foi projetado desde o início para oferecer maior desempenho e, ao mesmo tempo, reduzir o custo dos LLMs e da inferência da IA generativa.
Inferência do machine learning usando o AWS Inferentia
Saiba como criar um cluster Amazon EKS com nós executando instâncias Amazon EC2 Inf1 e (opcionalmente) implantar uma aplicação de amostra. As instâncias Inf1 do Amazon EC2 são desenvolvidas por chips do AWS Inferentia, que a AWS criou de forma personalizada para oferecer alto desempenho e a inferência de menor custo na nuvem.
-
Amazon Titan
-
Visão geral do Amazon Titan
Explore como os FMs do Amazon Titan são pré-treinados em grandes conjuntos de dados, o que os torna modelos poderosos e de uso geral. Saiba como você pode usá-los como estão, ou de forma privada, para personalizá-los com seus próprios dados para uma tarefa específica sem fazer anotações em grandes volumes de dados.
Explorar
Esses diagramas de arquitetura de referência mostram exemplos de serviços de IA e ML da AWS em uso.
Explore os whitepapers para ajudar você a começar e aprender as práticas recomendadas para a escolha e o uso de serviços de AI/ML.
Explore soluções aprovadas e orientações de arquitetura para casos de uso comuns de dos serviços de IA e ML.