Ограничения для Amazon Bedrock
Внедрите средства защиты, адаптированные к требованиям ваших приложений и политикам ответственного подхода к искусственному интеллектуСоздавайте приложения для ответственного использования ИИ с помощью ограничений
Ограничения Amazon Bedrock предоставляют настраиваемые средства защиты, которые помогают безопасно создавать приложения генеративного искусственного интеллекта в требуемом масштабе. Благодаря последовательному и стандартному подходу, используемому во всех поддерживаемых базовых моделях (FM), ограничения обеспечивают лучшие в отрасли средства защиты:
- В результате применения автоматизированных рассуждений для предотвращения фактических ошибок, связанных с галлюцинациями, решение является первой и единственной защитой на основе генеративного искусственного интеллекта
- Блокирует на 85 % больше нежелательного и вредного контента
- Отделяет более 75 % ответов с галлюцинациями из моделей для примеров использования с дополненной извлеченными данными генерацией (RAG) и резюмированием
Обеспечьте стабильный уровень безопасности приложений генеративного искусственного интеллекта
Ограничения – это единственная функция ответственного использования ИИ, предлагаемая крупным поставщиком облачных услуг, которая помогает создавать и настраивать меры безопасности, конфиденциальности и достоверности для приложений генеративного искусственного интеллекта в рамках единого решения. Ограничения помогают оценивать вводимые пользователями данные и моделировать ответы на основе политик с учетом конкретных вариантов использования, а также обеспечивают дополнительный уровень гарантий в дополнение к тем, которые изначально предоставляются базовыми моделями (FM). Ограничения работают с широким спектром моделей, включая базовые (FM), поддерживаемые Amazon Bedrock, доработанные модели, а также размещенные на собственном хостинге за пределами Amazon Bedrock. Пользовательские модели ввода и вывода данных можно независимо оценивать для сторонних и самостоятельно размещенных моделей с помощью API ApplyGuardrail. Ограничения также можно интегрировать с агентами Amazon Bedrock и Базами знаний Amazon Bedrock, чтобы создавать безопасные и более надежные приложения на основе генеративного искусственного интеллекта с соблюдением политик ответственного использования ИИ.
Выявляйте галлюцинации в ответах модели с помощью контекстных проверок обоснования
Чтобы сохранить и повысить доверие пользователей, клиентам необходимо развертывать правдивые и надежные приложения генеративного искусственного интеллекта. Однако из-за галлюцинаций базовые модели (FM) могут генерировать неверную информацию, например отклонения от исходной информации, объединения нескольких фрагментов или создание новых сведений. Ограничения для Amazon Bedrock позволяют применить контекстные проверки обоснования для выявления и фильтрации галлюцинаций, то есть необоснованных ответов (которые содержат, например, фактические неточности или сведения неизвестного происхождения), а также ответов, которые не соответствуют запросу либо инструкции пользователя. Контекстные проверки обоснования можно использовать для выявления галлюцинаций в приложениях RAG, для резюмирования и поддержания разговора, если есть возможность применять исходную информацию в качестве справочной для проверки ответа модели.
Проверка автоматизированных рассуждений помогает предотвратить фактические ошибки, вызванные галлюцинациями, и обеспечивает точность, которую можно проверить
Проверка автоматизированных рассуждений (предварительная версия) в ограничениях Amazon Bedrock – это первая и единственная защита на основе генеративного искусственного интеллекта, которая помогает предотвратить фактические ошибки и галлюцинации с помощью логически точных и поддающихся проверке аргументов, объясняющих правильность ответов. Автоматизированные рассуждения помогают избавиться от галлюцинаций, используя надежные математические методы для проверки, исправления и логического объяснения полученной информации. Это гарантирует соответствие полученных данных известным фактам, а не основанным на сфабрикованных или противоречивых данных. Разработчики могут создать политику автоматизированных рассуждений, загрузив существующий документ, который определяет подходящее пространство для решений, например руководство по управлению персоналом или руководство по эксплуатации. Затем Amazon Bedrock создает уникальную политику автоматизированных рассуждений и помогает пользователям тестировать и дорабатывать ее. Чтобы проверить сгенерированный контент на соответствие политике автоматизированных рассуждений, пользователям необходимо включить эту политику в ограничениях и настроить ее со списком уникальных Названий ресурсов Amazon (ARN). Этот основанный на логике процесс алгоритмической проверки гарантирует, что информация, генерируемая моделью, соответствует известным фактам и не основана на сфабрикованных или противоречивых данных. Проверки дают возможность получить достоверные ответы на основе моделей генеративного искусственного интеллекта, что позволяет поставщикам программного обеспечения повысить надежность своих приложений в таких сферах, как управление персоналом, финансы, юриспруденция, соответствие нормативным требованиям и т. д.
Блокируйте нежелательные темы в приложениях генеративного искусственного интеллекта
Руководители организаций признают необходимость управления взаимодействиями в приложениях с генеративным искусственным интеллектом для создания релевантной и безопасной среды работы пользователей. Они хотят еще больше адаптировать взаимодействие, чтобы оно сосредотачивалось в рамках актуальных для их бизнеса тем и соответствовало политике компании. Используя краткое описание на естественном языке, ограничения позволяют определить набор тем, которых следует избегать в контексте приложения. Ограничения позволяют обнаруживать и блокировать вводимую пользователем информацию и ответы базовой модели (FM) из запрещенных категорий. Например, помощник в банковской системе можно разработать таким образом, чтобы он избегал тем, связанных с инвестициями.
Фильтруйте нежелательный мультимодальный контент в соответствии с политиками ответственного использования ИИ
Благодаря инструменту ограничений можно настраивать фильтры контента с регулируемыми пороговыми значениями для токсичного текстового и графического контента. Эта мера предосторожности помогает фильтровать вредоносный контент, содержащий разжигание ненависти, оскорбления, темы секса, насилия и неправомерного поведения (включая преступную деятельность), а также защищает от атак с помощью текстовых запросов (внедрение текстовых запросов и джейлбрейк). Возможность обнаруживать и отфильтровывать нежелательный и потенциально опасный графический контент для категорий ненависти, оскорблений, сексуальных тем и насилия в настоящее время доступна в предварительной версии. Она поддерживается для всех базовых моделей в Amazon Bedrock, обрабатывающих изображения (включая базовые модели с тонкой настройкой). Чтобы выявлять нежелательный и потенциально опасный контент и предотвращать его использование, фильтры контента автоматически оценивают как вводимые пользователем данные, так и ответы модели. Например, сайт электронной коммерции может разработать своего онлайн-помощника таким образом, чтобы он не использовал неприемлемые выражения, такие как язык ненависти или оскорбления.
Редактирование секретных данных (например, информации, позволяющей установить личность [PII]) для защиты конфиденциальности
Ограничения способны обнаруживать конфиденциальную информацию, (например, PII), в пользовательских сообщениях и ответах базовой модели (FM). Можно выбрать из списка предопределенных PII или определить пользовательский тип конфиденциальной информации с помощью регулярных выражений (RegEx). В зависимости от варианта использования вы можете выборочно отклонять входные данные, содержащие чувствительную информацию, или редактировать их в ответах базовой модели. Например, вы можете редактировать личную информацию пользователей в процессе создания сводок по расшифровкам разговоров клиентов и операторов в колл-центре.
Дальнейшие шаги
Нашли то, что искали сегодня?
Сообщите нам, как мы могли бы улучшить качество контента на наших страницах.