- Machine Learning›
- Amazon SageMaker›
- Preguntas frecuentes sobre Amazon SageMaker
Preguntas frecuentes sobre Amazon SageMaker
Aspectos generales
¿Qué es Amazon SageMaker?
¿En qué regiones de AWS se encuentra disponible SageMaker?
Para ver una lista de las regiones admitidas por SageMaker, consulte la página de servicios regionales de AWS. Asimismo, para obtener más información, consulte Puntos de conexión regionales en la guía de referencia general de AWS.
¿Cuál es la disponibilidad de servicio de SageMaker?
¿De qué forma SageMaker protege el código?
SageMaker almacena el código en volúmenes de almacenamiento de ML, protegidos por grupos de seguridad y, opcionalmente, cifrados en reposo.
¿De qué medidas de seguridad dispone SageMaker?
SageMaker garantiza que los artefactos de los modelos de ML y otros artefactos del sistema estén cifrados tanto en tránsito como en reposo. Las solicitudes a la consola y la API de SageMaker se efectúan a través de una conexión segura (SSL). Transfiera roles de AWS Identity and Access Management a SageMaker para proporcionar permisos de acceso a recursos en su nombre para el entrenamiento y el despliegue. Puede usar buckets de Amazon Simple Storage Service (Amazon S3) cifrados para datos y artefactos de los modelos, así como también transferir una clave de AWS Key Management Service (AWS KMS) a los cuadernos de SageMaker, los trabajos de entrenamiento y los puntos de conexión para cifrar el volumen de almacenamiento de ML asociado. SageMaker también es compatible con Amazon Virtual Private Cloud (Amazon VPC) y con AWS PrivateLink.
¿SageMaker utiliza o comparte modelos, datos de entrenamiento o algoritmos?
SageMaker no utiliza ni comparte modelos, datos de entrenamiento o algoritmos. Sabemos que a los clientes les preocupa seriamente la confidencialidad y la seguridad de los datos. Es por ello que AWS permite controlar el contenido mediante herramientas sencillas y sólidas con las que se puede determinar dónde se almacenará ese contenido, proteger el contenido en tránsito y en reposo y administrar el acceso a los servicios y recursos de AWS de los usuarios. También implementamos controles técnicos y físicos diseñados para evitar el acceso no autorizado al contenido o su divulgación. Como cliente, se conserva la propiedad del contenido y se puede seleccionar qué servicios de AWS pueden procesar, almacenar y alojar el contenido. No accedemos al contenido ni lo usamos para ningún otro fin sin el consentimiento del cliente.
¿Cómo se cobra el uso de SageMaker?
Paga los recursos de procesamiento de datos, almacenamiento y cómputo de ML que use para alojar el cuaderno, entrenar el modelo, realizar predicciones y registrar los resultados. Con SageMaker, podrá seleccionar el número y el tipo de instancias utilizadas para el cuaderno alojado, el entrenamiento y el alojamiento del modelo. Solo pagará por lo que consuma y a medida que lo haga. No se requieren pagos mínimos ni compromisos iniciales. Para obtener más información, consulte la página de precios de Amazon SageMaker y la calculadora de precios de Amazon SageMaker.
¿Cómo puedo optimizar los costos de SageMaker, tales como detectar y detener los recursos inactivos para evitar cargos innecesarios?
Hay muchas prácticas recomendadas que puede adoptar para optimizar el uso de los recursos de SageMaker. Algunos enfoques implican optimizaciones de la configuración y otros, soluciones programáticas. En esta publicación de blog, se ofrece una guía completa sobre este concepto, con tutoriales visuales y muestras de código.
¿Qué sucede si ya tengo mi propio cuaderno, entrenamiento o entorno de alojamiento?
SageMaker ofrece un flujo de trabajo integral y completo, pero puede continuar usando las herramientas existentes con SageMaker. Puede transferir fácilmente los resultados de cada etapa hacia y desde SageMaker en función de las necesidades de su empresa.
¿R es compatible con SageMaker?
Sí. Puede utilizar R en las instancias de cuaderno de SageMaker, que incluyen un kernel R preinstalado y la biblioteca reticular. La biblioteca reticular ofrece una interfaz R para Amazon SageMaker Python SDK, lo que permite a los profesionales de ML crear, entrenar, ajustar y desplegar modelos R. También puede lanzar RStudio, un entorno de desarrollo integrado (IDE) para R en Amazon SageMaker Studio.
¿Qué es Amazon SageMaker Studio?
Amazon SageMaker Studio proporciona una única interfaz virtual basada en la web donde puede realizar todos los pasos de desarrollo de ML. SageMaker Studio le brinda acceso completo, control y visibilidad en todos los pasos requeridos para preparar datos y crear, entrenar e implementar modelos. Puede cargar datos, crear cuadernos nuevos, entrenar y ajustar modelos, retroceder y avanzar entre los pasos para ajustar experimentos, comparar resultados e implementar modelos para la producción, todo de forma rápida y en un solo lugar, lo que aumenta su productividad. Todas las actividades de desarrollo de ML, que incluyen cuadernos, administración de experimentos, creación automática de modelos, depuración y generación de perfiles y detección de desviación de modelos, se pueden realizar dentro de la interfaz visual unificada de SageMaker Studio.
¿Cuál es el esquema de precios de SageMaker Studio?
No se aplican cargos adicionales por utilizar SageMaker Studio. Solo paga los cargos subyacentes por computación y almacenamiento de los servicios que utilice dentro de SageMaker Studio.
¿En qué regiones se admite SageMaker Studio?
Puede encontrar las regiones en las que se admite SageMaker Studio en laGuía para desarrolladores de Amazon SageMaker.
¿Cómo puedo revisar mi modelo en busca de desequilibrios?
Amazon SageMaker Clarify ayuda a mejorar la transparencia del modelo mediante la detección de tendencias estadísticas en la totalidad del flujo de trabajo de machine learning. SageMaker Clarify revisa si hay desequilibrios durante la preparación de los datos, después del entrenamiento y de forma continua con el paso del tiempo. Además, incluye herramientas para explicar los modelos de aprendizaje automático y sus predicciones. Los resultados se pueden compartir mediante informes de explicabilidad.
¿Qué tipo de tendencias detecta SageMaker Clarify?
¿De qué manera SageMaker Clarify mejora la explicabilidad del modelo?
SageMaker Clarify está integrado a SageMaker Experiments para proporcionar un gráfico de la importancia de las características, que detalla la importancia de cada entrada del proceso general de toma de decisiones del modelo luego de que este se entrenó. Estos detalles pueden ayudar a determinar si la entrada de un modelo en particular posee más influencia de la que debería tener en el comportamiento general del modelo. SageMaker Clarify también efectúa explicaciones de las predicciones individuales disponibles a través de una API.
Gobernanza de ML
¿Qué herramientas de gobernanza de ML proporciona SageMaker?
SageMaker proporciona herramientas de gobernanza de ML personalizadas en todo el ciclo de vida de ML. Con el Administrador de roles de Amazon SageMaker, los administradores pueden definir permisos mínimos en minutos. Las tarjetas de modelos de Amazon SageMaker facilitan el trabajo de capturar, recuperar y compartir información esencial de los modelos, desde la concepción hasta el despliegue, y el panel de modelos de Amazon SageMaker lo mantiene informado sobre el comportamiento de los modelos de producción, todo en un solo lugar. Para
obtener más información, consulte Gobernanza del ML con Amazon SageMaker.
¿Para qué sirve el Administrador de roles de SageMaker?
Puede definir permisos mínimos en minutos con el administrador de roles de SageMaker. Proporciona un conjunto de permisos de referencia para actividades de ML y personas con un catálogo de políticas prediseñadas de IAM. Puede mantener los permisos de referencia o personalizarlos aún más según sus necesidades específicas. Con un par de indicaciones autoguiadas, puede ingresar rápidamente componentes de gobernanza comunes, como límites de acceso a la red y claves de cifrado. El administrador de roles de SageMaker generará la política de IAM de manera automática. Puede detectar el rol generado y las políticas asociadas mediante la consola de AWS IAM. Para adaptar aún más los permisos a su caso de uso, asocie sus políticas de IAM administradas al rol de IAM que cree con el administrador de roles de SageMaker. También puede agregar etiquetas para identificar el rol y organizar todos los servicios de AWS.
¿Para qué sirven las Tarjetas de modelos de SageMaker?
Las tarjetas de modelos de SageMaker lo ayudan a centralizar y estandarizar la documentación de los modelos a lo largo del ciclo de vida de ML al crear una única fuente de confianza para la información de cada modelo. Las tarjetas de modelos de SageMaker completan automáticamente los detalles de entrenamiento para acelerar el proceso de documentación. También puede agregar detalles como el propósito del modelo y los objetivos de rendimiento. Puede asociar resultados de la evaluación de modelos a su tarjeta de modelo y proporcionar visualizaciones para obtener información clave sobre el rendimiento de los modelos. Las tarjetas de modelos de SageMaker pueden compartirse fácilmente con otras personas al exportarlas en formato PDF.
¿Para qué sirve el Panel de modelos de SageMaker?
El panel de modelos de SageMaker le brinda una perspectiva general de los modelos y puntos de conexión implementados, lo cual le permite supervisar los recursos y las infracciones de comportamiento de los modelos en un solo panel. Le permite seguir el comportamiento de los modelos en cuatro dimensiones, incluida la calidad de modelos y datos, y la desviación de atribución de características y tendencias mediante su integración con el Monitor de modelos de SageMaker y SageMaker Clarify. El panel de modelos de SageMaker también proporciona una experiencia integrada para configurar y recibir alertas de trabajos de supervisión de modelos inactivos y faltantes y desviaciones en el comportamiento de los modelos en cuanto a la calidad del modelo, la calidad de los datos, la desviación de tendencias y la desviación de atribución de características. Puede inspeccionar aún más los modelos individuales y analizar factores que afectan el rendimiento de los modelos a lo largo del tiempo. Luego, puede hacer un seguimiento con profesionales de ML para tomar medidas correctivas.
Modelos básicos
¿Cómo puedo comenzar a usar SageMaker de forma rápida?
SageMaker JumpStart lo ayuda a comenzar a utilizar ML de forma rápida y fácil. SageMaker JumpStart proporciona un conjunto de soluciones para los casos de uso más comunes que se pueden implementar fácilmente con solo unos pocos pasos. Las soluciones son totalmente personalizables y muestran el uso de las plantillas y las arquitecturas de referencia de AWS CloudFormation, de manera que pueda acelerar el proceso del ML. SageMaker JumpStart también brinda modelos básicos y admite el despliegue en un solo paso y el ajuste de más de 150 modelos populares de código abierto, como los modelos de transformador, de detección de objetos y de clasificación de imágenes.
¿Qué modelos fundacionales están disponibles en SageMaker JumpStart?
SageMaker JumpStart proporciona modelos patentados y públicos. Para obtener una lista de los modelos fundacionales disponibles, consulte Introducción a Amazon SageMaker JumpStart.
¿Cómo puedo comenzar a usar los modelos básicos en SageMaker JumpStart?
Puede acceder a los modelos básicos a través de SageMaker Studio, el SDK de SageMaker y la consola de administración de AWS. Para empezar a usar los modelos fundacionales patentados, debe aceptar las condiciones de venta de AWS Marketplace.
¿Se utilizarán o compartirán mis datos para actualizar el modelo base que se ofrece a los clientes que utilizan SageMaker JumpStart?
No. Sus datos de inferencia y entrenamiento no se utilizarán ni compartirán para actualizar o entrenar el modelo base que SageMaker JumpStart muestra a los clientes.
¿Puedo ver los pesos de los modelos y los scripts de los modelos patentados con SageMaker JumpStart?
No. Los modelos patentados no permiten a los clientes ver los pesos y los scripts de los modelos.
¿En qué regiones están disponibles los modelos básicos de SageMaker JumpStart?
Los modelos se pueden detectar en todas las regiones en las que está disponible SageMaker Studio, pero la capacidad de desplegar un modelo varía según la disponibilidad del modelo y de la instancia del tipo de instancia requerido. Consulte la disponibilidad en las regiones de AWS y la instancia requerida en la página de detalles del modelo en AWS Marketplace.
¿Cuál es el precio de los modelos básicos de SageMaker JumpStart?
En el caso de los modelos patentados, se le cobrará el precio del software determinado por el proveedor del modelo y los cargos de infraestructura de SageMaker en función de la instancia utilizada. En el caso de los modelos disponibles públicamente, se le cobrarán cargos de infraestructura de SageMaker en función de la instancia utilizada. Para obtener más información, consulte los precios de Amazon SageMaker y AWS Marketplace.
¿Cómo garantiza SageMaker JumpStart la seguridad y protección de mis datos?
La seguridad es la principal prioridad de AWS, y SageMaker JumpStart está diseñado para ser seguro. Es por ello que SageMaker permite controlar el contenido mediante herramientas sencillas y sólidas con las que se puede determinar dónde se almacenará ese contenido, proteger el contenido en tránsito y en reposo y administrar el acceso a los servicios y recursos de AWS de los usuarios.
- No compartimos la información de entrenamiento e inferencias de los clientes con los vendedores de modelos de AWS Marketplace. Del mismo modo, los artefactos del modelo del vendedor (por ejemplo, los pesos de los modelos) no se comparten con el comprador.
- SageMaker JumpStart no utiliza modelos de clientes, datos de entrenamiento ni algoritmos para mejorar su servicio y no comparte los datos de entrenamiento e inferencia de los clientes con terceros.
- En SageMaker JumpStart, los artefactos del modelo ML se cifran en tránsito y en reposo.
- De acuerdo con el Modelo de responsabilidad compartida de AWS, AWS es responsable de proteger la infraestructura global que ejecuta todos los AWS. Usted es responsable de mantener el control del contenido que está alojado en esta infraestructura.
Al utilizar un modelo de AWS Marketplace o SageMaker JumpStart, los usuarios asumen la responsabilidad de la calidad de los resultados del modelo y reconocen las capacidades y limitaciones descritas en la descripción individual del modelo.
¿Qué modelos disponibles de manera pública son compatibles con SageMaker JumpStart?
SageMaker JumpStart incluye más de 150 modelos disponibles de manera pública con entrenamiento previo de PyTorch Hub y TensorFlow Hub. Para las tareas de visualización, como la clasificación de imágenes y la detección de objetos, puede usar los modelos como ResNet, MobileNet y Single-Shot Detector (SSD). Para las tareas de texto, como la clasificación de oraciones, la clasificación de textos o las respuestas a preguntas, puede usar los modelos como BERT, RoBERTa y DistilBERT.
¿Cómo puedo compartir artefactos de ML con otras personas dentro de mi organización?
Con SageMaker JumpStart, los científicos de datos y desarrolladores de ML pueden compartir artefactos de ML fácilmente, incluidos cuadernos y modelos, dentro de su organización. Los administradores pueden configurar un repositorio que sea accesible para un conjunto de usuarios definido. Todos los usuarios con permiso para acceder al repositorio pueden examinar, buscar y usar modelos y cuadernos, al igual que el contenido público dentro de SageMaker JumpStart. Los usuarios pueden seleccionar artefactos para entrenar modelos, implementar puntos de conexión y ejecutar cuadernos en SageMaker JumpStart.
¿Por qué debería usar SageMaker JumpStart para compartir artefactos de ML con otras personas dentro de mi organización?
Con SageMaker JumpStart, es posible acelerar el plazo de comercialización al crear aplicaciones de ML. Los modelos y cuadernos creados por un equipo dentro de su organización pueden compartirse fácilmente con otros equipos dentro de su organización con solo unos pasos. Compartir información interna y reutilizar activos puede aumentar de manera significativa la productividad de su organización.
¿Cómo puedo evaluar y seleccionar los modelos fundacionales?
¿Los administradores pueden controlar lo que está disponible para sus usuarios?
Sí. Los administradores pueden controlar qué modelos de Amazon SageMaker JumpStart los usuarios pueden ver y usar en todas las cuentas de AWS y entidades principales de usuario. Para más información, consulte la documentación.
¿Qué es el kit de herramientas de optimización de inferencias?
El kit de herramientas de optimización de inferencias facilita la implementación de las técnicas de optimización de inferencias más recientes para lograr un rendimiento de costos de última generación (SOTA) en Amazon SageMaker y, al mismo tiempo, ahorrar meses de tiempo para los desarrolladores. Puede elegir entre un menú de técnicas de optimización populares que ofrece SageMaker y ejecutar los trabajos de optimización con antelación, comparar el modelo para determinar las métricas de rendimiento y precisión y, a continuación, desplegar el modelo optimizado en un punto de enlace de SageMaker para realizar inferencias. El kit de herramientas se ocupa de todos los aspectos de la optimización del modelo para que pueda centrarse más en sus objetivos empresariales.
¿Por qué debo usar el kit de herramientas de optimización de inferencias?
El kit de herramientas de optimización de inferencias lo ayuda a mejorar los costos, el rendimiento y el tiempo de comercialización de las aplicaciones de IA generativa. El kit de herramientas de optimización de modelos totalmente administrado brinda acceso a las últimas técnicas de optimización con herramientas fáciles de usar. También es fácil actualizarse a la mejor solución disponible con el tiempo, ya que el kit de herramientas se adapta continuamente a las innovaciones más avanzadas, al nuevo equipo y a las características de alojamiento.
El kit de herramientas de optimización de inferencias es compatible con técnicas de optimización como la decodificación especulativa, la cuantificación y la compilación. Puede elegir las optimizaciones que desea agregar a su modelo con unos pocos clics y Amazon SageMaker administrará todo el trabajo pesado e indiferenciado que supone adquirir el equipo, seleccionar el contenedor de aprendizaje profundo y los parámetros de ajuste correspondientes para ejecutar los trabajos de optimización y, a continuación, guardar los artefactos del modelo optimizados en la ubicación de S3 que usted haya proporcionado.
Para la decodificación especulativa, puede comenzar con el modelo de borrador proporcionado por SageMaker, de modo que no tenga que crear sus propios borradores de modelos desde cero y solicitar optimizaciones de enrutamiento y nivel de sistema. Con la cuantificación, solo tiene que elegir el tipo de precisión que desea utilizar e iniciar un trabajo de evaluación comparativa para medir el equilibrio entre el rendimiento y la precisión. Amazon SageMaker generará un informe de evaluación exhaustivo para que pueda analizar fácilmente el equilibrio entre el rendimiento y la precisión. Con la compilación, para los modelos más populares y sus configuraciones, Amazon SageMaker recuperará automáticamente los artefactos del modelo compilado durante la configuración y el escalado del punto de enlace, lo que elimina la necesidad de ejecutar los trabajos de compilación con antelación, lo que permite ahorrar costos de equipos.
El kit de herramientas de optimización de inferencias de Amazon SageMaker ayuda a reducir los costos y el tiempo necesarios para optimizar los modelos de IA generativa, lo que permite que se centre en sus objetivos empresariales.
ML de poco código
¿Qué es Amazon SageMaker Canvas?
SageMaker Canvas es un servicio sin código con una interfaz intuitiva e interactiva que le permite crear predicciones de precisión alta basadas en ML a partir de sus datos. SageMaker Canvas le permite acceder y combinar datos de una variedad de fuentes mediante una interfaz de usuario de arrastrar y soltar, lo cual limpia y prepara automáticamente los datos para minimizar la limpieza manual. SageMaker Canvas aplica una variedad de algoritmos de ML de vanguardia para encontrar modelos predictivos de alta precisión y proporciona una interfaz intuitiva para crear predicciones. Puede utilizar SageMaker Canvas para hacer predicciones mucho más precisas de diversas aplicaciones empresariales y colaborar fácilmente con analistas y científicos de datos de su empresa al compartir modelos, datos e informes. Para obtener más información sobre SageMaker Canvas, consulte las preguntas frecuentes sobre Amazon SageMaker Canvas.
¿Cuál es el esquema de precios de SageMaker Canvas?
Con SageMaker Canvas, paga en función del uso. SageMaker Canvas le permite capturar, explorar y preparar datos a partir de varias fuentes, entrenar modelos de ML de alta precisión con sus datos y generar predicciones. Hay dos componentes que determinan su factura: los cargos por sesión basados en la cantidad de horas que se usa o se inicia sesión en SageMaker Canvas y cargos por entrenar el modelo basados en el tamaño del conjunto de datos usado para crear el modelo. Para obtener más información, consulte la página de precios de Amazon SageMaker Canvas.
Flujos de trabajo de ML
¿Cómo puedo crear un flujo de trabajo de ML repetible en SageMaker?
Canalizaciones de Amazon SageMaker lo ayuda a crear flujos de trabajo de ML completamente automatizados desde la preparación de los datos hasta el despliegue del modelo, de manera que pueda escalar a miles de modelos de ML en la etapa de producción. Puede crear canalizaciones con el SDK para Python de SageMaker y verlas, ejecutarlas y auditarlas desde la interfaz visual de SageMaker Studio. Canalizaciones de SageMaker se encarga de administrar los datos entre los pasos, empaquetar las recetas de códigos y organizar su ejecución, lo que reduce el tiempo de codificación de meses a unas pocas horas. Cada vez que se ejecuta un flujo de trabajo, se lleva un registro completo de los datos procesados y de las acciones realizadas para que los científicos de datos y los desarrolladores de machine learning puedan depurar los problemas con rapidez.
¿Cómo veo todos los modelos entrenados para elegir el mejor modelo y pasar a la etapa de producción?
¿Qué componentes de SageMaker se pueden agregar a Canalizaciones de SageMaker?
¿Cómo hago un seguimiento de los componentes del modelo en todo el flujo de trabajo de ML?
¿Cuál es el esquema de precios para Canalizaciones de SageMaker?
No se aplican cargos adicionales por utilizar Canalizaciones de SageMaker. Solo paga por los servicios subyacentes de computación o cualquier otro servicio de AWS independiente que utilice en Canalizaciones de SageMaker.
¿Puedo usar Kubeflow con SageMaker?
¿Cómo funciona el sistema de precios de los componentes de SageMaker para canalizaciones de Kubeflow?
No se aplican cargos adicionales por utilizar los componentes de SageMaker para Canalizaciones de Kubeflow.
Interacción humana
¿Qué es human-in-the-loop y por qué es importante para crear aplicaciones basadas en la IA?
Human-in-the-loop es el proceso de aprovechar las aportaciones humanas a lo largo del ciclo de vida del ML para mejorar la precisión y la relevancia de los modelos. Los humanos pueden llevar a cabo una variedad de tareas, desde la generación y anotación de datos hasta la revisión y personalización de los modelos. La intervención humana es especialmente importante para las aplicaciones de IA generativa, en las que los humanos suelen ser tanto los solicitantes como los consumidores del contenido. Por lo tanto, es fundamental que las personas capaciten a los modelos fundacionales (FM) para que respondan las solicitudes de los usuarios de manera precisa, segura y relevante. Los comentarios humanos se pueden aplicar para ayudarlo a completar varias tareas. En primer lugar, crear conjuntos de datos de entrenamiento etiquetados de alta calidad para aplicaciones de IA generativa, mediante el aprendizaje supervisado (en el que un humano simula el estilo, la longitud y la precisión de la forma en que un modelo debe responder a las solicitudes del usuario) y el aprendizaje por refuerzo con comentarios humanos (en el que un humano categoriza y clasifica las respuestas del modelo). En segundo lugar, utilizar datos generados por personas para personalizar los FM para tareas específicas o con datos específicos de su empresa y dominio y hacer que la salida del modelo sea relevante para usted.
¿Cómo se pueden utilizar las capacidades de human-in-the-loop para aplicaciones de IA generativas basadas en los FM?
Las capacidades human-in-the-loop desempeñan un papel importante en la creación y mejora de aplicaciones de IA generativas basadas en el FM. Una fuerza laboral humana altamente calificada que esté capacitada sobre las pautas de las tareas puede proporcionar comentarios, orientación, aportes y evaluar actividades como generar datos de demostración para entrenar a los FM, corregir y mejorar las respuestas de las muestras, ajustar un modelo basado en datos de la empresa y el sector, actuar como protección contra la toxicidad y los sesgos, etc. Por lo tanto, las capacidades de human-in-the-loop pueden mejorar la precisión y el rendimiento del modelo.
¿Cuál es la diferencia entre las ofertas de autoservicio de Amazon SageMaker Ground Truth y las administradas por AWS?
Amazon SageMaker Ground Truth ofrece el conjunto más completo de capacidades de human-in-the-loop. Hay dos formas de utilizar Amazon SageMaker Ground Truth: una oferta de autoservicio y una oferta administrada por AWS. En la oferta de autoservicio, los anotadores de datos, los creadores de contenido y los ingenieros de solicitudes (internos, administrados por el proveedor o que aprovechan al público) pueden utilizar nuestra interfaz de usuario de código mínimo para acelerar las tareas de human-in-the-loop y, al mismo tiempo, tener la flexibilidad para crear y gestionar sus propios flujos de trabajo personalizados. En la oferta administrada por AWS (SageMaker Ground Truth Plus), nos encargamos de las tareas más pesadas por usted, que incluyen la selección y la administración del personal adecuado para su caso de uso. SageMaker Ground Truth Plus diseña y personaliza un flujo de trabajo integral (que incluye pasos detallados de entrenamiento de la fuerza laboral y de control de calidad) y proporciona un equipo calificado administrado por AWS que está capacitado en las tareas específicas y cumple con los requisitos de calidad, seguridad y conformidad de los datos.
Preparación de datos
¿Cómo puede SageMaker preparar los datos para ML?
SageMaker Data Wrangler reduce el tiempo que lleva agregar y preparar los datos para el ML. Desde una única interfaz en SageMaker Studio, puede importar datos desde Amazon S3, Amazon Athena, Amazon Redshift, AWS Lake Formation, Amazon EMR, Snowflake y Databricks con solo unos pasos. También puede consultar e importar datos que se transfieren de más de 50 orígenes de datos y se registran en el Catálogo de datos de AWS Glue mediante Amazon AppFlow. SageMaker Data Wrangler cargará, agregará y mostrará de manera automática los datos sin procesar. Después de importar sus datos en SageMaker Data Wrangler, puede ver resúmenes de columnas e histogramas generados automáticamente. Luego, puede investigar más a fondo para comprender sus datos e identificar errores potenciales con el informe de detalles y calidad de datos de SageMaker Data Wrangler, el cual proporciona estadísticas resumidas y advertencias sobre la calidad de los datos. También puede ejecutar análisis de tendencias de SageMaker Clarify directamente desde SageMaker Data Wrangler para detectar posibles tendencias durante la preparación de los datos. A partir de ahí, puede usar las transformaciones prediseñadas de SageMaker Data Wrangler para preparar sus datos. Una vez que los datos están preparados, puede crear flujos de trabajo de ML completamente automatizados con Canalizaciones de Amazon SageMaker o importar esos datos al Almacén de características de Amazon SageMaker.
¿Qué tipos de datos admite SageMaker Data Wrangler?
¿Cómo puedo crear características de modelos con SageMaker Data Wrangler?
¿Cómo puedo ver los datos en SageMaker Data Wrangler?
¿Cómo funciona el sistema de precios de SageMaker Data Wrangler?
Debe pagar por todos los recursos informáticos, de almacenamiento y de procesamiento de datos que use para SageMaker Data Wrangler. Puede revisar todos los detalles referidos a los precios de SageMaker Data Wrangler aquí. Como parte del nivel gratuito de AWS, también puede comenzar a utilizar SageMaker Data Wrangler de forma gratuita.
¿Cómo puedo entrenar modelos de ML con datos preparados en SageMaker Data Wrangler?
¿Cómo maneja SageMaker Data Wrangler los datos nuevos cuando preparo mis características en función de datos históricos?
¿Cómo funciona SageMaker Data Wrangler con mis procesos de CI/CD?
¿Qué modelo usa el modelo rápido de SageMaker Data Wrangler?
¿Qué tamaño de datos admite SageMaker Data Wrangler?
¿SageMaker Data Wrangler trabaja con el Almacén de características de SageMaker?
¿Qué es el Almacén de características de SageMaker?
El Almacén de características de Amazon SageMaker es una plataforma completamente administrada y creada específicamente para almacenar, compartir y administrar modelos de machine learning (ML). Las características se pueden descubrir y compartir para reutilizarlas fácilmente en todos los modelos y equipos con acceso y control seguros, incluso en todas las cuentas de AWS. El Almacén de características de SageMaker es compatible con las funciones en línea y fuera de línea para la inferencia en tiempo real, la inferencia por lotes y el entrenamiento. También, administra las canalizaciones de ingeniería de características por lotes y el streaming para reducir la duplicación en la creación de características y mejorar la precisión de los modelos.
¿Qué son las características sin conexión?
¿Qué son las características en línea?
¿Cómo mantengo la consistencia entre las características sin conexión y en línea?
¿Cómo puedo reproducir una característica de un momento específico?
¿Cuál es el esquema de precios del almacén de características de SageMaker?
Puede comenzar a utilizar el almacén de características de SageMaker de forma gratuita, como parte del nivel gratuito de AWS. Con el Almacén de características de SageMaker, paga por escribir en el almacén de características y por el almacenamiento que use en el almacén de características en línea y las lecturas que haga desde él. Para obtener más información sobre los precios, consulte los precios de Amazon SageMaker.
¿Qué ofrece SageMaker para el etiquetado de datos?
SageMaker presenta dos ofertas de etiquetado de datos: Amazon SageMaker Ground Truth Plus y Amazon SageMaker Ground Truth. Ambas opciones permiten identificar datos sin procesar, como imágenes, archivos de texto y videos, y agregar etiquetas informativas para crear conjuntos de datos de entrenamiento de alta calidad para modelos de ML. Para obtener más información, consulte Etiquetado de datos de Amazon SageMaker.
¿Qué son los datos geoespaciales?
¿Qué son las capacidades geoespaciales de SageMaker?
¿Por qué debería usar el ML geoespacial en SageMaker?
Creación de modelos
¿Qué son los cuadernos de Amazon SageMaker Studio?
¿Cómo funcionan los cuadernos de SageMaker Studio?
Los cuadernos de SageMaker Studio son cuadernos de Jupyter de un solo paso que se pueden iniciar con rapidez. Los recursos informáticos subyacentes son completamente elásticos, de forma que puede aumentar o disminuir los recursos disponibles y los cambios se producen automáticamente en segundo plano sin interrumpir el trabajo. SageMaker también permite compartir cuadernos con un solo paso. Comparta de manera fácil los cuadernos con otros usuarios y ellos recibirán el mismo cuaderno, almacenado en el mismo lugar.
Con los cuadernos de SageMaker Studio, puede iniciar sesión con las credenciales corporativas a través de IAM Identity Center. Compartir los cuadernos dentro de un equipo y con otros equipos es sencillo, ya que las dependencias necesarias para ponerlos en marcha se siguen automáticamente en imágenes de trabajo que se encapsulan con el cuaderno cuando este se comparte.
¿En qué se diferencian los cuadernos de SageMaker Studio de los cuadernos basados en instancias?
¿De qué manera los cuadernos de SageMaker Studio funcionan con otros servicios de AWS?
¿Qué son los espacios compartidos en SageMaker?
Los profesionales de ML pueden crear un espacio de trabajo compartido, en donde los compañeros de equipo pueden leer y editar juntos los cuadernos de SageMaker Studio. Al usar los espacios compartidos, los compañeros de equipo pueden editar en conjunto el mismo archivo de cuaderno, ejecutar código del cuaderno simultáneamente y revisar los resultados juntos para eliminar las idas y vueltas y agilizar la colaboración. En los espacios compartidos, los equipos de ML tienen soporte integrado para servicios como BitBucket y AWS CodeCommit, de modo que pueden administrar fácilmente diferentes versiones de su cuaderno y comparar los cambios a lo largo del tiempo. Todos los recursos que se creen desde el cuaderno, como experimentos y modelos de ML, se guardan automáticamente y se asocian con el espacio de trabajo específico donde se crearon, para que los equipos puedan mantenerse organizados y acelerar el desarrollo de los modelos de ML.
¿Cuál es el esquema de precios de los cuadernos de SageMaker Studio?
¿La creación y ejecución de cada cuaderno en SageMaker Studio se cobra de manera individual?
No. Puede crear y ejecutar varios blocs de notas en la misma instancia de cómputo. Solo pagará por la capacidad de cómputo que utilice, no por los elementos individuales. Puede obtener más información acerca de este tema en nuestra guía de medición.
Además de los cuadernos, también puede iniciar y ejecutar terminales y shells interactivos en SageMaker Studio, todo en la misma instancia de cómputo. Cada aplicación se pone en marcha dentro de un contenedor o una imagen. SageMaker Studio proporciona varias imágenes integradas personalizadas y preconfiguradas para tareas de ciencia de datos y ML.
¿Cómo superviso y apago los recursos que utilizan los cuadernos?
Puede usar tanto la interfaz visual de SageMaker Studio como la Consola de administración de AWS para monitorizar y apagar los recursos que usan los cuadernos de SageMaker Studio. Para obtener más información, consulte la documentación.
Si estoy poniendo en marcha un cuaderno de SageMaker Studio. ¿Se me seguirá cobrando si cierro el navegador, cierro la pestaña del cuaderno o solamente dejo el navegador abierto?
¿Se cobra la creación y la configuración de un dominio de SageMaker Studio?
No, no se cobra la creación ni la configuración de un dominio de SageMaker Studio, lo cual incluye agregar, actualizar y eliminar perfiles de usuarios.
¿Cómo puedo ver los cargos desglosados de los cuadernos de SageMaker Studio o de otros servicios de SageMaker?
Como administrador, puede ver la lista de cargos desglosados de SageMaker, incluido SageMaker Studio, en la consola de facturación de AWS. En la Consola de administración de AWS para SageMaker, elija Services (Servicios) en el menú superior, escriba “billing” (facturación) en el cuadro de búsqueda, luego seleccione Billing (Facturación) en el menú desplegable y seleccione Bills (Facturas) en el panel izquierdo. En la sección “Details” (Detalles), puede seleccionar SageMaker para ampliar la lista de regiones y analizar detenidamente los cargos desglosados.
¿Qué es Amazon SageMaker Studio Lab?
¿Por qué debería usar SageMaker Studio Lab?
¿Cómo funciona SageMaker Studio Lab con los demás servicios de AWS?
¿Con qué orígenes de datos es compatible SageMaker Canvas?
SageMaker Canvas le permite descubrir orígenes de datos de AWS a los que su cuenta tenga acceso sin problemas, incluidos Amazon S3 y Amazon Redshift. Puede buscar e importar datos con la interfaz visual de arrastrar y soltar de SageMaker Canvas. Además, puede arrastrar y soltar archivos del disco local y utilizar conectores prediseñados para importar los datos de orígenes de terceros como Snowflake.
¿Cómo creo un modelo de ML para generar predicciones precisas en SageMaker Canvas?
Luego de que ha conectado los orígenes, seleccionado los conjuntos de datos y preparado sus datos, puede seleccionar la columna de destino que quiere predecir para iniciar un trabajo de creación de modelos. SageMaker Canvas identificará automáticamente el tipo de problema, generará características relevantes nuevas, probará un conjunto integral de modelos de predicción mediante técnicas de ML como regresión lineal, regresión logística, aprendizaje profundo, previsión de serie temporal y potenciación del gradiente y creará un modelo que realiza predicciones precisas en función de su conjunto de datos.
Entrenamiento de modelos
¿Qué es Amazon SageMaker HyperPod?
¿Cuándo debo usar SageMaker HyperPod?
¿SageMaker admite el entrenamiento distribuido?
Sí. SageMaker puede distribuir automáticamente los modelos de aprendizaje profundo y los grandes conjuntos de entrenamiento entre las instancias de GPU de AWS en una fracción del tiempo que lleva crear y optimizar estas estrategias de distribución de forma manual. Las dos técnicas de entrenamiento distribuido que SageMaker aplica son el paralelismo de datos y el paralelismo de modelos. El paralelismo de datos se aplica para mejorar las velocidades de entrenamiento al dividir los datos de forma equitativa entre las múltiples instancias de GPU, lo que permite que todas las instancias se entrenen al mismo tiempo. El paralelismo de modelos es útil para los modelos que son demasiado grandes para estar almacenados en una única GPU y necesitan que el modelo esté dividido en partes más pequeñas antes de distribuirlas entre varias GPU. Con solo unas pocas líneas de código adicional en sus scripts de entrenamiento de PyTorch y TensorFlow, SageMaker aplicará el paralelismo de datos o el paralelismo de modelos por usted de forma automática, lo que le permitirá desarrollar e implementar modelos con mayor rapidez. SageMaker determinará el mejor enfoque para dividir el modelo mediante algoritmos de partición de gráficos para balancear el procesamiento informático de cada GPU y, a la vez, minimizar la comunicación entre instancias de GPU. SageMaker también optimiza los trabajos de entrenamiento distribuido mediante algoritmos que utilizan completamente la computación y las redes de AWS para lograr una eficiencia de escalado casi lineal, lo que le permite completar el entrenamiento con mayor rapidez que con implementaciones manuales de código abierto.
¿Qué son los Experimentos de Amazon SageMaker?
¿Qué es el Depurador de Amazon SageMaker?
¿Qué es Managed Spot Training?
¿Cómo uso Managed Spot Training?
¿Cuándo debo usar Managed Spot Training?
¿Cómo funciona Managed Spot Training?
¿Debo establecer puntos de control periódicamente con Managed Spot Training?
¿Cómo se calcula el ahorro en el costo con trabajos de Managed Spot Training?
¿Qué instancias puedo usar con Managed Spot Training?
¿En qué regiones se admite Managed Spot Training?
Managed Spot Training se admite en todas las regiones en las que SageMaker está disponible actualmente.
¿Hay límites en cuanto al tamaño del conjunto de datos que se puede utilizar para el entrenamiento?
No hay límites fijos en cuanto al tamaño del conjunto de datos que se puede utilizar para modelos de entrenamiento con SageMaker.
¿Qué algoritmos utiliza SageMaker para generar modelos?
¿Qué es el Ajuste automático de modelos?
¿Qué modelos se pueden modificar con el Ajuste automático de modelos?
¿Puedo usar el Ajuste automático de modelos fuera de SageMaker?
Por ahora no. La mejor experiencia y el mejor rendimiento del ajuste de modelo se obtienen dentro de SageMaker.
¿Cuál es el algoritmo de ajuste subyacente para el Ajuste automático de modelos?
Actualmente, el algoritmo para el ajuste de hiperparámetros es una implementación personalizada de optimización bayesiana. Su objetivo es optimizar una métrica de objetivos específica del cliente en todo el proceso de ajuste. Específicamente, verifica la métrica de objetivos de trabajos de entrenamiento finalizados y utiliza el conocimiento para inferir la combinación de hiperparámetros para el próximo trabajo de entrenamiento.
¿El Ajuste automático de modelos recomienda hiperparámetros específicos para el ajuste?
No. La manera en la que determinados hiperparámetros afectan al rendimiento del modelo depende de varios factores y es difícil decir de manera definitiva que un hiperparámetro es más importante que otros y que, por lo tanto, debe ajustarse. Para algoritmos integrados en SageMaker, sí avisamos si un hiperparámetro se puede ajustar o no.
¿Cuánto demora una tarea de ajuste de hiperparámetros?
La duración de una tarea de ajuste de hiperparámetros depende de varios factores, incluido el tamaño de los datos, el algoritmo subyacente y los valores de los hiperparámetros. Además, los clientes pueden elegir el número de tareas de entrenamiento simultáneas y el número total de tareas de entrenamiento. Todas estas opciones afectan la duración de la tarea de entrenamiento de los hiperparámetros.
¿Puedo optimizar varios objetivos de manera simultánea, como la optimización de un modelo, para que sea ágil y preciso?
Por ahora no. Actualmente, debe especificar una única métrica de objetivo que quiera optimizar, o bien modificar el código del algoritmo para emitir una métrica nueva, que se promedia entre dos o más métricas útiles, y optimizar el proceso de ajuste en pos de dicha métrica de objetivo.
¿Cuánto cuesta el Ajuste automático de modelos?
No se cobra la tarea de ajuste de hiperparámetros en sí. Se le cobrarán los trabajos de entrenamiento que inicie el trabajo de ajuste de hiperparámetros, en función de los precios de entrenamiento de modelos.
¿Cómo sé si debo usar el Piloto automático de SageMaker o el Ajuste automático de modelos?
El Piloto automático de SageMaker automatiza todo en un flujo de trabajo típico de ML. Esto incluye el preprocesamiento de características, la selección de algoritmos y el ajuste de hiperparámetro, y al mismo tiempo se centra en los casos de uso de clasificación y regresión. Por otra parte, el ajuste de modelo automático está diseñado para adecuarse a cualquier modelo, independientemente de si está basado en algoritmos integrados, marcos de aprendizaje profundo o contenedores personalizados. A cambio de la flexibilidad, debe hacer una selección manual del algoritmo específico, los hiperparámetros que quiere ajustar y los rangos de búsqueda correspondientes.
¿Qué es el aprendizaje mediante refuerzo?
Es una técnica de ML que permite que un agente aprenda en un entorno interactivo por el método de prueba y error, con la retroalimentación obtenida de sus propias acciones y experiencias.
¿Puedo entrenar modelos de aprendizaje por refuerzo en SageMaker?
Sí. Aparte de los modelos de aprendizaje supervisado y no supervisado, puede entrenar modelos de aprendizaje mediante refuerzo en SageMaker.
¿En qué se diferencia el aprendizaje mediante refuerzo del aprendizaje supervisado?
Ambos tipos de aprendizaje usan la asignación entre la entrada y la salida pero, a diferencia del aprendizaje supervisado en el que la retroalimentación proporcionada al agente es un conjunto de acciones correctas para hacer una tarea, el aprendizaje mediante refuerzo utiliza una retroalimentación retrasada donde las señales de compensación se optimizan para garantizar un objetivo a largo plazo a través de una secuencia de acciones.
¿Cuándo debo utilizar el aprendizaje mediante refuerzo?
Mientras que el objetivo de las técnicas de aprendizaje supervisado es encontrar la respuesta correcta en función de los patrones de los datos de formación, el objetivo de las técnicas de aprendizaje sin supervisar es encontrar similitudes y diferencias entre los puntos de datos. Por el contrario, el objetivo de las técnicas de refuerzo de aprendizaje (RL) es aprender cómo lograr un resultado deseado, incluso cuando no esté claro cómo lograrlo. Como consecuencia, el RL es más adecuado para habilitar aplicaciones inteligentes en las que un agente puede tomar decisiones autónomas, como robótica, vehículos autónomos, sistemas de acondicionamiento, control industrial, etc.
¿Qué tipo de entornos puedo usar para el entrenamiento de modelos RL?
Amazon SageMaker RL admite distintos entornos para el entrenamiento de modelos RL. Puede usar servicios de AWS como AWS RoboMaker, entornos de código abierto o personalizados desarrollados mediante interfaces Open AI Gym, así como entornos de simulación comercial, como MATLAB y SimuLink.
¿Tengo que escribir mis propios algoritmos de agente de RL para entrenar modelos RL?
No. SageMaker RL incluye conjuntos de herramientas de RL, como Coach y Ray RLLib, que ofrecen implementaciones de algoritmos de agente de RL, como DQN, PPO y A3C, entre otros.
¿Puedo usar mis propias implementaciones de algoritmos y bibliotecas de RL, y ejecutarlas en SageMaker RL?
Sí. Puede traer sus propias implementaciones de algoritmos y bibliotecas de RL en contenedores Docker, y ejecutarlas en SageMaker RL.
¿Puedo realizar ejecuciones distribuidas con SageMaker RL?
Sí. Puede incluso seleccionar un clúster heterogéneo, donde el entrenamiento puede ponerse en marcha en una instancia de GPU y las simulaciones en varias instancias de CPU.
Despliegue de modelos
¿Qué opciones de despliegue ofrece SageMaker?
¿Qué es la inferencia asíncrona de Amazon SageMaker?
¿Cómo puedo configurar el escalamiento automático para desescalar verticalmente a cero el recuento de instancias a fin de ahorrar costos cuando no se procesen activamente las solicitudes?
Puede reducir verticalmente a cero el recuento de instancias de punto de conexión de la inferencia asíncrona de SageMaker para ahorrar costos cuando no se procesen activamente las solicitudes. Es necesario definir una política de escalado que escale sobre la métrica personalizada “ApproximateBacklogPerInstance” y establecer el valor “MinCapacity” a cero. Para obtener instrucciones paso a paso, visite la sección de autoescalado de un punto de conexión asincrónico de la guía del desarrollador.
¿Qué es la interferencia sin servidor de Amazon SageMaker?
La inferencia sin servidor de SageMaker es una opción personalizada de publicación de modelos sin servidor que facilita el despliegue y el escalamiento de modelos de ML. Los puntos de enlace de Amazon SageMaker Serverless Inference inician automáticamente los recursos informáticos y los escala de forma ascendente y descendente dependiendo del tráfico, lo que elimina la necesidad de elegir el tipo de instancia, ejecutar una capacidad aprovisionada o administrar el escalado. También tiene la opción de especificar los requisitos de memoria para los puntos de enlace de su inferencia sin servidor. Solo paga por la duración de la ejecución del código de inferencia y la cantidad de datos procesados, no por el tiempo de inactividad.
¿Por qué debería usar la inferencia sin servidor de SageMaker?
¿Qué es la simultaneidad aprovisionada para la inferencia sin servidor de SageMaker?
¿Por qué debería utilizar la simultaneidad aprovisionada?
Con los puntos de conexión sin servidor bajo demanda, si su punto de conexión no recibe tráfico durante un tiempo y, de repente, recibe nuevas solicitudes, puede tardar algún tiempo en activar los recursos de cómputo necesarios para procesar las solicitudes. Esto se denomina arranque en frío. También puede producirse un arranque en frío si las solicitudes simultáneas superan el uso actual de solicitudes simultáneas. El tiempo de arranque en frío depende del tamaño del modelo, del tiempo que se tarde en descargar el modelo y del tiempo de inicio del contenedor.
Para reducir la variabilidad en su perfil de latencia, puede habilitar opcionalmente la simultaneidad aprovisionada para sus puntos de conexión sin servidor. Con la simultaneidad aprovisionada, sus puntos de conexión sin servidor están siempre listos y pueden servir de forma instantánea ráfagas de tráfico, sin necesidad de arranques en frío.
¿Qué cargos me cobrarán por la simultaneidad aprovisionada?
Al igual que ocurre con la inferencia sin servidor bajo demanda, cuando la simultaneidad aprovisionada está habilitada, paga por la capacidad de cálculo utilizada para procesar las solicitudes de inferencia, facturada por milisegundos y por la cantidad de datos procesados. También paga por el uso de la simultaneidad aprovisionada, en función de la memoria configurada, la duración aprovisionada y la cantidad de simultaneidad habilitada. Para obtener más información, consulte la página de precios de Amazon SageMaker.
¿Qué son las pruebas de sombra de SageMaker?
¿Por qué debería usar SageMaker para las pruebas de sombra?
¿Qué es el Recomendador de inferencias de Amazon SageMaker?
El Recomendador de inferencias de SageMaker reduce el tiempo requerido para producir modelos de ML mediante la automatización de los análisis comparativos de rendimiento y el ajuste del rendimiento de los modelos en todas las instancias de ML de SageMaker. Ahora puede utilizar Amazon SageMaker Inference Recommender para implementar su modelo en un punto de conexión que entregue el mejor rendimiento y reduzca los costos. Puede comenzar con Amazon SageMaker Inference Recommender en minutos mientras selecciona un tipo de instancia y obtener recomendaciones para configuraciones óptimas de puntos de conexión en un par de horas, lo que ahorra semanas de tiempo de pruebas y ajustes manuales. Con el Recomendador de inferencias de Amazon SageMaker, solo paga por las instancias de ML de SageMaker utilizadas durante la prueba de carga y no hay costos adicionales.
¿Por qué debería usar el Recomendador de inferencias de SageMaker?
¿Cómo funciona el Recomendador de inferencias de SageMaker con otros servicios de AWS?
¿El Recomendador de inferencias de SageMaker admite puntos de conexión multimodelo o puntos de conexión multicontenedor?
No, actualmente solo se admite un único modelo por punto de conexión.
¿Qué tipo de puntos de conexión admite el Recomendador de inferencias de SageMaker?
Actualmente, solo se admiten puntos de conexión en tiempo real.
¿Puedo usar el Recomendador de inferencias de SageMaker en una región y hacer análisis comparativos en distintas regiones?
Admitiremos todas las regiones que admite Amazon SageMaker, a excepción de las regiones de AWS de China.
¿El Recomendador de inferencias de SageMaker admite instancias Inf1 de Amazon EC2?
Sí, admitimos todos los tipos de contenedores. Inf1 de Amazon EC2, basado en el chip de AWS Inferentia, requiere un artefacto de modelo compilado que utiliza el compilador Neuron o Amazon SageMaker Neo. Una vez que tenga un modelo compilado para un objetivo de Inferentia y el URI de la imagen del contenedor asociado, puede utilizar SageMaker Inference Recommender para hacer análisis comparativos de los distintos tipos de instancias de Inferentia.
¿Qué es el Monitor de modelos de Amazon SageMaker?
¿Puedo obtener acceso a la infraestructura en la que se ejecuta SageMaker?
No. SageMaker opera la infraestructura informática por usted, lo que le permite ejecutar comprobaciones de estado, aplicar parches de seguridad y realizar otras tareas de mantenimiento de rutina. También puede implementar elementos de modelos de entrenamiento con código de inferencia personalizado en su propio entorno de alojamiento.
¿Cómo puedo escalar el tamaño y el desempeño del modelo de SageMaker una vez que ya se encuentre en producción?
El alojamiento de SageMaker se ajusta automáticamente al rendimiento necesario para la aplicación mediante Application Auto Scaling. Además, puede modificar manualmente el número y el tipo de instancia sin generar tiempos de inactividad mediante la modificación de la configuración del punto de conexión.
¿Cómo puedo monitorizar el entorno de producción de SageMaker?
SageMaker emite métricas de rendimiento hacia Amazon CloudWatch Metrics para que pueda realizar un seguimiento de métricas, definir alarmas y reaccionar automáticamente ante cambios en el tráfico de producción. Además, SageMaker escribe registros en Amazon CloudWatch Logs para permitirle monitorear el entorno de producción y solucionar sus problemas.
¿Qué tipos de modelos se pueden alojar con SageMaker?
SageMaker puede alojar cualquier modelo que se ajuste a la especificación documentada para imágenes de Docker de inferencia. Incluye modelos creados a partir de códigos de inferencia y artefactos de modelos de SageMaker.
¿Cuántas solicitudes de API simultáneas en tiempo real admite SageMaker?
SageMaker está diseñado para ajustar su escala a un número elevado de transacciones por segundo. El número preciso varía en función del modelo implementado y del número y el tipo de instancia en el cual esté implementado el modelo.
¿Cómo admite SageMaker el alojamiento y la administración de modelos totalmente administrados?
¿Qué es la transformación en lotes?
La transformación en lotes le permite poner en marcha las predicciones en datos de lotes grandes y pequeños. No es necesario desglosar el conjunto de datos en varios fragmentos ni administrar los puntos de conexión en tiempo real. Con una API simple, puede solicitar predicciones para un gran número de registros de datos y transformar los datos de manera rápida y sencilla.
¿Qué opciones de despliegue del punto de conexión admite SageMaker?
¿Qué es el escalado automático para la elasticidad?
¿Qué es el Administrador de periféricos de Amazon SageMaker?
SageMaker Edge Manager facilita la optimización, la protección, la supervisión y el mantenimiento de modelos de ML en las flotas de dispositivos periféricos, como las cámaras inteligentes, los robots, las computadoras personales y los dispositivos móviles. El Administrador de periféricos de SageMaker ayuda a los desarrolladores de ML a operar modelos de ML en una variedad de dispositivos periféricos a escala.
¿Cómo puedo comenzar a usar el Administrador de periféricos de SageMaker?
Para comenzar a utilizar SageMaker Edge Manager, debe compilar y empaquetar sus modelos de aprendizaje automático entrenados en la nube, registrar sus dispositivos y prepararlos con el SDK de SageMaker Edge Manager. Para preparar su modelo para la implementación, SageMaker Edge Manager utiliza SageMaker Neo para compilar el modelo del hardware de borde de destino. Una vez que el modelo está compilado, SageMaker Edge Manager firma el modelo con una clave generada por AWS, luego empaqueta el modelo con su tiempo de ejecución y las credenciales necesarias para prepararse para la implementación. Del lado del dispositivo, debe registrarlo con SageMaker Edge Manager, descargar el SDK de SageMaker Edge Manager y, luego, seguir las instrucciones para instalar el agente de SageMaker Edge Manager en sus dispositivos. El cuaderno del tutorial proporciona un ejemplo paso a paso de cómo puede preparar los modelos y conectarlos a los dispositivos periféricos con el Administrador de periféricos de SageMaker.
¿Qué dispositivos son compatibles con el Administrador de periféricos de SageMaker?
SageMaker Edge Manager es compatible con dispositivos comunes basados en CPU (ARM, x86) y GPU (ARM, Nvidia) con sistemas operativos Linux y Windows. Con el tiempo, SageMaker Edge Manager ampliará su compatibilidad con más procesadores integrados y plataformas móviles que también son compatibles con SageMaker Neo.
¿Tengo que usar SageMaker si quiero entrenar mi modelo para utilizar el Administrador de periféricos de SageMaker?
No, no es necesario. Puede formar sus modelos con cualquier otro servicio o utilizar modelos preformados de código abierto o de proveedores de modelos.
¿Tengo que utilizar SageMaker Neo si deseo compilar mi modelo para usar el Administrador de periféricos de SageMaker?
Sí, debe hacerlo. SageMaker Neo convierte y compila sus modelos en un archivo ejecutable que usted luego puede empaquetar e implementar en sus dispositivos periféricos. Una vez que el paquete del modelo se implemente, el agente de SageMaker Edge Manager desempacará el paquete del modelo y lo ejecutará en el dispositivo.
¿Cómo implemento modelos en los dispositivos periféricos?
SageMaker Edge Manager almacena el paquete del modelo en el bucket de Amazon S3 especificado. Puede utilizar la característica de despliegue por vía inalámbrica (OTA), que ofrece AWS IoT Greengrass, o cualquier otro mecanismo de despliegue que elija para implementar el paquete del modelo en los dispositivos desde el bucket de S3.
¿En qué se diferencia el SDK del Administrador de periféricos de SageMaker del la versión ejecutable de SageMaker Neo (dlr)?
El dlr de Neo es un tiempo de ejecución de código abierto que solo ejecuta modelos compilados por el servicio SageMaker Neo. En comparación con el dlr de código abierto, el SDK de SageMaker Edge Manager incluye un agente de nivel empresarial integrado en el dispositivo con características adicionales de seguridad, administración de modelos y publicación de modelos. El SDK de SageMaker Edge Manager es conveniente para el despliegue en producción a escala.
¿Cómo se relaciona Administrador de periféricos de SageMaker con AWS IoT Greengrass?
SageMaker Edge Manager y AWS IoT Greengrass pueden trabajar juntos en su solución de IoT. Cuando su modelo de ML está empaquetado con SageMaker Edge Manager, puede utilizar la característica de actualización OTA de AWS IoT Greengrass para implementar el paquete del modelo en su dispositivo. AWS IoT Greengrass le permite monitorear sus dispositivos de IoT de forma remota al mismo tiempo que SageMaker Edge Manager lo ayuda a monitorear y mantener los modelos de ML en los dispositivos.
¿Cómo se relaciona el Administrador de periféricos de SageMaker con AWS Panorama? ¿Cuándo debería utilizar SageMaker Edge Manager frente a AWS Panorama?
AWS ofrece las capacidades más completas para la ejecución de modelos en dispositivos de borde. Tenemos servicios para respaldar una amplia variedad de casos de uso, incluidos la visión artificial, el reconocimiento de voz y el mantenimiento predictivo.
Para aquellas empresas que buscan poner en marcha la visión artificial en dispositivos periféricos, como cámaras y electrodomésticos, se puede utilizar AWS Panorama. AWS Panorama ofrece aplicaciones de visión artificial para los dispositivos periféricos listas para implementar. Es fácil comenzar a utilizar AWS Panorama, ya que inicia sesión en la consola en la nube, especifica el modelo que le gustaría utilizar en Simple Storage Service (Amazon S3) o en SageMaker y, luego, escribe la lógica de negocios como un script de Python. AWS Panorama compila el modelo para el dispositivo de destino y crea un paquete de la aplicación para que se pueda implementar en los dispositivos con solo unos pocos clics. Además, los proveedores de software independientes que quieran crear sus propias aplicaciones personalizadas pueden usar el SDK de AWS Panorama, mientras que los fabricantes de dispositivos pueden utilizar el SDK para dispositivos con el fin de certificar los suyos para AWS Panorama.
Los clientes que quieran crear sus propios modelos y tener un control más detallado de sus características pueden utilizar SageMaker Edge Manager. SageMaker Edge Manager es un servicio administrado para preparar, poner en marcha, supervisar y actualizar los modelos de ML en las flotas de dispositivos periféricos, como las cámaras inteligentes, los parlantes inteligentes y los robots, para cualquier caso de uso, como el procesamiento de lenguaje natural, la detección de fraudes y el mantenimiento predictivo. SageMaker Edge Manager está destinado a los desarrolladores de ML de borde que quieren tener el control de sus modelos, incluidos el diseño de diferentes características para los modelos y su supervisión en caso de desviaciones. Cualquier desarrollador de ML de borde puede utilizar SageMaker Edge Manager mediante la consola y las API de SageMaker. SageMaker Edge Manager proporciona las capacidades de SageMaker para crear, entrenar e implementar los modelos en la nube en dispositivos de borde.
¿En qué regiones se encuentra disponible el Administrador de periféricos de SageMaker?
SageMaker Edge Manager está disponible en seis regiones: Este de EE. UU. (Virginia del Norte), Este de EE. UU. (Ohio), Oeste de EE. UU. (Oregón), Europa (Irlanda), Europa (Fráncfort) y Asia-Pacífico (Tokio). Consulte la lista de servicios regionales de AWS para obtener más detalles.
¿Qué es Amazon SageMaker Neo?
SageMaker Neo permite que los modelos de ML entrenen una sola vez y se ejecuten en cualquier lugar, tanto en la nube como en la periferia. SageMaker Neo optimiza automáticamente los modelos creados con marcos de aprendizaje profundo conocidos que se pueden utilizar para el despliegue en múltiples plataformas de hardware. Los modelos optimizados se ponen en marcha hasta 25 veces más rápido y consumen menos de una décima parte de los recursos de los modelos de ML típicos.
¿Cómo puedo comenzar a usar SageMaker Neo?
Para comenzar a utilizar SageMaker Neo, inicie sesión en la consola de SageMaker, elija un modelo entrenado, siga el ejemplo para compilar modelos e implemente el modelo resultante en la plataforma de hardware de destino.
¿Cuáles son los principales componentes de SageMaker Neo?
SageMaker Neo tiene dos componentes principales: un compilador y un tiempo de ejecución. En primer lugar, el compilador de SageMaker Neo lee los modelos exportados por los distintos marcos de trabajo. A continuación, convierte las operaciones y funciones específicas del marco de trabajo en una representación intermedia con independencia de este. Después, realiza una serie de optimizaciones. Entonces, el compilador genera código binario para las operaciones optimizadas y las escribe en una biblioteca de objetos compartidos. El compilador también guarda los parámetros y la definición del modelo en archivos independientes. Durante la ejecución, el tiempo de ejecución de SageMaker Neo carga los artefactos generados por el compilador (definición del modelo, parámetros y la biblioteca de objetos compartidos) para ejecutar el modelo.
¿Tengo que usar SageMaker si quiero entrenar mi modelo para utilizar SageMaker Neo en la conversión del modelo?
No. Puede entrenar los modelos en cualquier otro punto y utilizar SageMaker Neo para optimizarlos para dispositivos compatibles con AWS IoT Greengrass o instancias de ML de SageMaker.
¿Qué modelos admite SageMaker Neo?
En la actualidad, SageMaker Neo admite los modelos de aprendizaje profundo más populares, que impulsan las aplicaciones de visión informática y los modelos de árboles de decisiones más conocidos que se utilizan hoy en día en SageMaker. SageMaker Neo optimiza el rendimiento de los modelos AlexNet, ResNet, VGG, Inception, MobileNet, SqueezeNet y DenseNet entrenados en MXNet y TensorFlow, así como de los modelos de clasificación y bosque de corte aleatorio entrenados en XGBoost.
¿Qué plataformas de hardware admite SageMaker Neo?
Encuentre las listas de las instancias en la nube, los dispositivos periféricos y las versiones de marcos admitidos en la documentación de SageMaker Neo.
¿En qué regiones se encuentra disponible SageMaker Neo?
Si desea ver una lista de las regiones disponibles, consulte la lista de servicios regionales de AWS.
Savings Plans de Amazon SageMaker
¿Qué es Savings Plans de Amazon SageMaker?
¿Por qué debería usar Savings Plans de SageMaker?
¿Cómo puedo comenzar a usar Savings Plans de SageMaker?
¿En qué se diferencian Savings Plans para SageMaker de Savings Plans para computación de Amazon EC2?
¿Cómo funcionan los Savings Plans con AWS Organizations o Facturación unificada?
Savings Plans se pueden adquirir desde cualquier cuenta en una familia de AWS Organizations o facturación unificada. De manera predeterminada, se puede disfrutar de los beneficios que Savings Plans en todas las cuentas que estén en una familia de AWS Organizations o facturación unificada. Sin embargo, también puede optar por limitar el beneficio de los Savings Plans únicamente a la cuenta que los adquirió.