16 мировых лидеров в области ИИ, включая Google, Microsoft, IBM и OpenAI, подписали обязательства деактивировать свои технологии в случае их потенциального опасного воздействия. Событие произошло в Южной Корее на саммите AI Safety Summit.
В рамках саммита были приняты новые обязательства по безопасности передовых технологий ИИ. Компании-участники согласились публиковать свои методики оценки рисков, связанных с их ИИ-моделями, описывать допустимые уровни рисков и принимаемые меры в случае превышения этих уровней. При невозможности снижения рисков ниже установленного порога, компании обязуются не разрабатывать и не внедрять соответствующие модели и системы.
Хотя звучит обязательство звучит многообещающе, детали пока не проработаны. Их предстоит обсуждать на Саммите действий по ИИ, который пройдет в начале 2025 года.
Компании, подписавшие документ в Сеуле, также обязались:
- проводить тестирование своих передовых ИИ-моделей;
- делиться информацией;
- инвестировать в кибербезопасность и предотвращение внутренних угроз для защиты не выпущенных технологий;
- поощрять обнаружение уязвимостей сторонними исследователями;
- маркировать ИИ-контент;
- приоритизировать исследования социальных рисков, связанных с ИИ.
Во время саммита также была принятаСеульская декларация. В документеговорится о важности обеспечения совместимости между системами управления ИИ, основываясь на риск-ориентированном подходе, для максимизации преимуществ и устранения широкого спектра рисков, связанных с ИИ. Это необходимо для безопасного, надежного и заслуживающего доверия проектирования, разработки, развертывания и использования ИИ.
Среди участников сессии были представители правительств стран G7, Сингапура, Австралии, ООН, ОЭСР и ЕС, а также представители индустрии.