После тщательного расследования, проведенного итальянским органом по защите данных, известным как DPA, компанию OpenAI, которая стоит за разработкой ИИ-чат-бота ” data-html=”true” data-original-title=”ChatGPT” >ChatGPT, обвинили в нарушении законов Европейского Союза о защите личных данных. В результате этих нарушений разработчиков могут оштрафовать на значительные суммы – до 20 миллионов евро или до 4% от их годового дохода. Теперь у OpenAI есть 30 дней для официального ответа на обвинения.
В прошлом году итальянские власти уже выражали беспокойство относительно соблюдения OpenAI положений Общего регламента по защите данных (GDPR), что привело к кратковременному запрету на использование этой модели в стране. В марте DPA Италии указал на отсутствие законных оснований для сбора и обработки персональных данных, на которых обучается алгоритм. В частности, регуляторы обратили внимание на риски для безопасности детей и склонность ИИ к созданию недостоверного контента – так называемых “галлюцинаций”.
DPA может потребовать от OpenAI поменять процесс обработки информации, чтобы обеспечить защиту конфиденциальности граждан. Возможно, разработчикам придется полностью пересмотреть свой подход к работе или вовсе перестать предоставлять свои услуги на территории Евросоюза.
Весной 2023 года OpenAI удалось быстро восстановить работу ChatGPT в Италии, устранив некоторые из указанных нарушений. Однако исследование показало, что платформа все еще нарушает европейское законодательство.
Основная проблема OpenAI в ЕС связана с тем, что для обработки данных европейских граждан нужны конкретные юридические основания. В соответствии с GDPR, существует шесть допустимых причин, но большинство из них не имеют никакого отношения к обучению чат-бота. Итальянский DPA предложил OpenAI два возможных решения: либо добиваться явного согласия пользователей, либо доказать, что обработка данных осуществляется в рамках “законных интересов” компании.
Учитывая огромный объем контента, который OpenAI использует без разрешения правообладателей, эти требования представляют собой серьезный вызов. К тому же есть вероятность, что итальянский DPA не признает основания компании на обработку персональных данных легитимными.
Такие случаи уже были : Европейский суд ранее в подобной ситуации не признал “законные интересы” достаточными для сбора данных компанией Meta* для таргетированной рекламы. Этот прецедент может усложнить положение OpenAI в Европе. Особенно это касается новых рисков, связанных с применением ИИ, включая распространение дезинформации и мошенничества.
Чтобы уменьшить возможные риски со стороны регуляторов, OpenAI создает новую организацию в Ирландии. Они надеются, что это поможет им стать основным учреждением в стране и упростит процесс соответствия GDPR. Однако пока этот статус не будет получен, ChatGPT остается объектом пристального внимания DPA других стран ЕС.
DPA Италии также объявила о создании специальной рабочей группы в составе Европейского совета по защите данных, задачей которой будет координировать надзор за ChatGPT. Однако на данный момент каждый национальный орган DPA по-прежнему обладает независимостью и имеет полномочия принимать решения самостоятельно.
*Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ.