Восемь запретных технологий: как изменится ИИ в Европе

В Европейском союзе вступил в силу первый этап регулирования ИИ: с 2 февраля запрещены системы, которые несут “неприемлемый риск” для общества. Это часть масштабного Акта об искусственном интеллекте, принятого в марте 2023 года после долгих обсуждений.

ЕС разделил ИИ-системы на четыре категории риска. Минимальный (например, фильтры спама) и ограниченный (чат-боты) регулировать не планируют. Высокорисковые решения, включая медицинские системы, попадут под строгий контроль. А вот ИИ, которые считаются “неприемлемыми”, теперь запрещены полностью.

Что попало под запрет?

Закон запрещает несколько видов ИИ:

  • Системы социального рейтинга, оценивающие людей по их поведению.
  • Алгоритмы, манипулирующие решениями людей скрытыми методами.
  • Технологии, эксплуатирующие уязвимости человека (например, возраст, инвалидность, финансовое положение).
  • Предсказательные системы, оценивающие вероятность совершения преступлений по внешности.
  • Биометрические ИИ, определяющие личностные характеристики, такие как сексуальная ориентация.
  • Системы реального времени, отслеживающие биометрию в общественных местах для полиции.
  • Анализ эмоций сотрудников и учащихся.
  • Расширение баз распознавания лиц за счет сканирования интернета и камер наблюдения.

Компании, нарушившие закон, могут получить штраф до €35 млн или 7% годового оборота. При этом запреты касаются всех фирм, работающих в ЕС, вне зависимости от их штаб-квартиры.

Пока без жестких санкций

Хотя срок вступления в силу ограничений – 2 февраля, штрафы начнут действовать только с августа. К этому времени должны определиться контролирующие органы и механизм их работы.

В 2023 году более 100 компаний, включая Amazon, Google и OpenAI, добровольно подписали AI Pact, обязуясь соблюдать принципы Акта заранее. Однако такие гиганты, как Meta, Apple и Mistral AI, проигнорировали инициативу.

Есть ли исключения?

Да. Закон допускает использование запрещенных технологий в исключительных случаях:

  • Полиция сможет применять биометрические системы для поиска пропавших людей или предотвращения угрозы жизни.
  • Определение эмоций допустимо, если оно используется в медицинских или терапевтических целях.

Тем не менее, точные правила и разъяснения Еврокомиссия обещает представить не раньше 2025 года.

Public Release.