Amazon SageMaker HyperPod 客户
各种规模的顶级人工智能初创企业和组织都在 SageMaker HyperPod 上大规模训练和部署基础模型-
Hugging Face
-
Perplexity AI
-
Articul8 AI
-
Thomson Reuters
Thomson Reuters 是全球人工智能和内容驱动型技术公司。该公司一直在测试 Amazon SageMaker HyperPod 中的任务治理能力,旨在解决有关工作负载优先级方面的关键挑战。通过任务治理功能,他们可以在兼顾自己正在进行的模型开发项目的同时管理推理请求等客户工作负载,确保在不中断内部研究的情况下优先处理客户的紧急请求,从而提高资源利用率和客户满意度。
-
Thomson Reuters
“我们能够使用 Amazon SageMaker HyperPod 满足大型语言模型的训练要求。通过在 SageMaker HyperPod 上使用 Amazon EKS,我们能够扩展容量并轻松运行训练作业,从而在法律摘要和分类等领域发挥 LLM 的优势。”
John Duprey,Thomson Reuters 实验室杰出工程师
-
Thomson Reuters
-
Stability AI
-
Observea
-
Recursal AI
-
Hippocratic AI
Hippocratic AI 是一家人工智能公司,开发了医疗保健行业首个以安全为重点的大型语言模型(LLM)。为了训练主要的 LLM 和监管模型,Hippocratic AI 需要强大的计算资源。然而,这种资源的需求量本就很大,难以获得。Amazon SageMaker HyperPod 灵活的训练计划让该公司能够更轻松地访问 Amazon Elastic Compute Cloud(Amazon EC2)P5 实例。Hippocratic AI 还利用 Grafana 等 AWS 服务来跟踪重要的 GPU 利用率指标。使用 Amazon EC2 P5 实例后,Hippocratic AI 将模型训练速度提高了四倍,也将解决方案继续了扩展,足以顾及数百个用例。该实例帮助他们获得所需的计算资源并快速训练模型。
-
Articul8
Amazon SageMaker HyperPod 任务治理功能有助于最大程度提高各个团队和项目的 GPU 利用率。作为一家快速成长的生成式人工智能初创企业,Articul8 AI 不断优化自己的计算环境,尽力高效地分配加速计算资源。借助 SageMaker HyperPod 中的自动任务优先级划分和资源分配功能,该公司显著提高了 GPU 利用率,更通过优化训练、微调和推理等任务,减少了空闲时间,加速了模型开发过程。自动将资源转移到高优先级任务的能力提高了该公司团队的生产力,让他们能够更快地将新的生成式人工智能创新技术推向市场,速度远超以往。
-
NinjaTech
NinjaTech AI 是一家生成式人工智能公司,提供一体化的 SuperAgent 来实现无限的生产力。SuperAgent 使用 Amazon SageMaker HyperPod 灵活的训练计划来加速包括 Llama 3.1 405B 模型在内的多种内部模型的微调工作,降低了模型训练成本,也实现了流程自动化。该公司旨在为想要使用由其 SuperAgent 技术支持的各种人工智能座席的用户提供无缝体验。为了实现这一目标,他们需要一个能够自动预测用户意图并判断最适合意图的人工智能座席的模型。这种机制需要通过反复整合客户反馈和新功能来频繁更新模型,每轮 LoRA 微调时都涉及 1000 万至 1 亿个口令。对于一家初创企业来说,获取和运营高性能计算资源具有挑战性,因为它面临高昂的成本和严峻的带宽问题。在涉及快速网络和快速存储以及加速计算的多节点集群中,这种情况更加严重。此外,训练过程非常耗时,涉及了模型下载、分布式训练、检查点、监控、自动修复、合并和量化等步骤。HyperPod 灵活的训练计划在训练开展之前为该公司提供了可靠且实惠的计算资源,既满足了公司具体的计算和时间要求,又保障了高效的模型训练。
-
OpenBabylon
OpenBabylon 是一家为代表性不足的语言自定义大型语言模型的人工智能公司。该公司的开发人员和数据科学家数月来一直在使用 SageMaker HyperPod 灵活的训练计划,简化了他们对 GPU 资源的访问,便于开展大规模实验。他们使用多节点 SageMaker HyperPod 的分布式训练功能,进行了 100 次大型模型训练实验,在英语到乌克兰语的翻译方面取得了领先结果。该公司按时且经济高效地实现了此项突破性成果,证明了 SageMaker HyperPod 能够按时、按预算成功交付复杂项目。
-
Salesforce
Salesforce 的研究人员当时正在寻找无需担心基础设施,也不必耗费数周时间针对每个新模型优化训练堆栈,就能快速开始基础模型训练和微调的方法。借助 Amazon SageMaker HyperPod 配方,Salesforce 的研究人员可以在自定义基础模型时快速进行原型设计。现在,Salesforce 的人工智能研究团队能够在几分钟内通过各种预训练和微调配方开始工作,也能够以高性能运行前沿模型。
Amazon SageMaker HyperPod 合作伙伴
与拥有深厚技术知识和成熟客户成功经验的 AWS 合作伙伴一起推动创新并释放更大的商业价值
-
Accenture
-
Slalom
-
Rackspace Technology