Por que usar a inferência de ML do IoT Greengrass?
O AWS IoT Greengrass facilita a realização de inferências de machine learning (ML) localmente em dispositivos, usando modelos criados, treinados e otimizados na nuvem. O AWS IoT Greengrass dá a você a flexibilidade de usar modelos de machine learning treinados no Amazon SageMaker ou de usar seu próprio modelo previamente treinado armazenado no Simple Storage Service (Amazon S3).
Machine learning usa algoritmos estatísticos que aprendem com os dados existentes, um processo denominado treinamento, para tomar decisões sobre novos dados, um processo denominado inferência. Durante o treinamento, os padrões e relacionamentos nos dados são identificados para criar um modelo. O modelo permite que um sistema tome decisões inteligentes sobre dados que não encontrou antes. A otimização de modelos compacta o tamanho do modelo para que ele seja executado com rapidez. O treinamento e a otimização de modelos de Machine Learning requerem muita capacidade de processamento. Portanto, é natural que sejam feitos na nuvem. No entanto, a inferência exige uma quantidade consideravelmente menor de processamento e, muitas vezes, é executada em tempo real quando novos dados são disponibilizados. Obter resultados de inferência com latência muito baixa é importante para garantir que aplicativos de IoT possam responder com rapidez a eventos locais.
O AWS IoT Greengrass oferece o melhor de dois mundos. Use modelos de machine learning criados, treinados e otimizados na nuvem e execute a inferência localmente em dispositivos. Por exemplo, você pode criar um modelo preditivo no SageMaker para a análise de detecção de cenas, otimizá-lo para a execução em qualquer câmera e implantá-lo para prever atividades suspeitas e emitir um alerta. Os dados obtidos da inferência em execução no AWS IoT Greengrass podem ser enviados de volta para o SageMaker onde podem ser marcados e usados para melhorar de forma contínua a qualidade dos modelos de machine learning.
Benefícios
Flexível
O AWS IoT Greengrass inclui pacotes predefinidos do Amazon SageMaker Neo Deep Learning Runtime (DLR), Apache MXNet, TensorFlow e Chainer para dispositivos ativados por Intel Atom, NVIDIA Jetson TX2 e Raspberry Pi. Então, não é necessário criar e configurar o framework de machine learning para seus dispositivos do zero. Além disso, ele funciona com outros frameworks conhecidos, incluindo PyTorch e Caffe2. Se você usar o Amazon SageMaker Neo com o AWS IoT Greengrass, os modelos criados nessas estruturas serão convertidos em um código portátil que será executado em qualquer dispositivo com AWS IoT Greengrass para evitar ajustes adicionais na borda.
Implante modelos em dispositivos conectados com algumas etapas rápidas
O AWS IoT Greengrass facilita a implantação de modelos de machine learning da nuvem para os dispositivos. Com apenas alguns cliques no console do AWs IoT Greengrass, você pode localizar os modelos treinados no Amazon SageMaker ou no Simple Storage Service (Amazon S3), selecionar o modelo desejado e implantá-lo nos dispositivos de destino. Os modelos serão implantados no dispositivo conectado escolhido.
Acelere a performance da inferência
Por meio da integração com o Amazon SageMaker e o compilador de aprendizado profundo Neo, você pode implantar modelos de machine learning com um tempo de execução otimizado, que podem ser executados até duas vezes mais rápido do que frameworks de machine learning usados ou ajustados manualmente. O AWS IoT Greengrass também oferece acesso a aceleradores de hardware, como GPUs nos dispositivos, pois disponibiliza tempos de execução predefinidos para os frameworks de machine learning e dispositivos de destino comuns, como a placa Nvidia Jetson TX2.
Execute a inferência em mais dispositivos
Usando a integração com o Amazon SageMaker e o Neo Compiler, os modelos são otimizados com menos de um décimo da quantidade de memória, o que permite sua execução em dispositivos com limitação de recursos, como câmeras de segurança e atuadores residenciais.
Execute inferências em dispositivos conectados com mais facilidade
A execução local da inferência em dispositivos conectados que executam o AWS IoT Greengrass reduz a latência e o custo de envio de dados do dispositivo para a nuvem para fazer uma previsão. Em vez de enviar todos os dados à nuvem para inferência de machine learning, execute a inferência diretamente no dispositivo.
Crie modelos mais precisos
Ao usar o AWS IoT Greengrass, você pode executar a inferência e capturar os resultados, detectar exceções e enviar dados de volta à nuvem e ao Amazon SageMaker, onde eles poderão ser reclassificados, marcados e usados para retreinamento de modelo para aprimorar a precisão do seu modelo de machine learning.
Casos de uso
Clientes em destaque
O AWS IoT Greengrass ajuda a Yanmar a aumentar a inteligência de operações de estufa, detectando e reconhecendo automaticamente as principais etapas de crescimento de vegetais para aumentar o número de colheitas.
The Electronic Caregiver garante o fornecimento de cuidados de alta qualidade com a inferência de ML do AWS IoT Greengrass ML, permitindo o envio de modelos de machine learning diretamente a dispositivos na borda e aumentando a segurança dos pacientes.
Com o AWS IoT Greengrass, a Vantage Power envia modelos de machine learning a veículos individuais e detecta falhas de bateria com um mês de antecedência.