Secure AI Framework (SAIF) от Google — это инструмент на основе анкет, помогающий разработчикам ИИ защитить свои системы.
Advertisement
Google представила новый инструмент для обмена передовым опытом по развертыванию моделей искусственного интеллекта (ИИ) в четверг. В прошлом году базирующийся в Маунтин-Вью технологический гигант анонсировал Secure AI Framework (SAIF), руководство не только для компании, но и для других предприятий, создающих большие языковые модели (LLM). Теперь технологический гигант представил инструмент SAIF, который может генерировать контрольный список с действенной информацией для повышения безопасности модели ИИ. Примечательно, что инструмент представляет собой инструмент на основе анкеты, в котором разработчикам и предприятиям придется ответить на ряд вопросов, прежде чем получить контрольный список.
Google представляет инструмент SAIF для предприятий и разработчиков
В сообщении в блоге технологический гигант из Маунтин-Вью подчеркнул, что он выпустил новый инструмент, который поможет другим в отрасли ИИ изучить передовой опыт Google по развертыванию моделей ИИ. Большие языковые модели способны оказывать широкий спектр вредных воздействий, от создания ненадлежащего и непристойного текста, дипфейков и дезинформации до создания вредной информации, включая химическое, биологическое, радиологическое и ядерное (ХБРЯ) оружие.
Даже если модель ИИ достаточно безопасна, существует риск того, что злоумышленники могут взломать модель ИИ, чтобы заставить ее реагировать на команды, на которые она не была рассчитана. При таких высоких рисках разработчики и компании ИИ должны принять достаточные меры предосторожности, чтобы гарантировать, что модели безопасны для пользователей, а также достаточно безопасны. Вопросы охватывают такие темы, как обучение, настройка и оценка моделей, контроль доступа к моделям и наборам данных, предотвращение атак и вредоносных входных данных, а также генеративные агенты на основе ИИ и многое другое.
Инструмент SAIF от Google предлагает формат на основе анкеты, доступ к которому можно получить здесь. Разработчики и предприятия должны ответить на такие вопросы, как «Можете ли вы обнаружить, удалить и исправить вредоносные или случайные изменения в ваших данных обучения, настройки или оценки?». После заполнения анкеты пользователи получат индивидуальный контрольный список, которому им необходимо следовать, чтобы заполнить пробелы в защите модели ИИ.
Инструмент способен обрабатывать такие риски, как отравление данных, внедрение подсказок, фальсификация источника модели и другие. Каждый из этих рисков определяется в анкете, и инструмент предлагает конкретное решение проблемы.
- Garmin Fenix 8 Series с аккумулятором до 48 дней дебютирует в Индии
- Gentler Streak Update обеспечивает поддержку анализа сна и аналитики сна
Наряду с этим Google также объявила о добавлении 35 отраслевых партнеров в свою Коалицию за безопасный ИИ (CoSAI). Группа будет совместно создавать решения по безопасности ИИ в трех основных областях — безопасность цепочки поставок программного обеспечения для систем ИИ, подготовка защитников к меняющемуся ландшафту кибербезопасности и управление рисками ИИ.