Норвежский совет по защите прав потребителей (Forbrukerradet), являющийся государственным органом, на днях опубликовал отчёт , в котором предупреждает о рисках генеративного искусственного интеллекта и призывает политиков и регуляторов не доверять технологическим гигантам в обеспечении должного уровня безопасности и надёжности этой технологии.
“Мы должны гарантировать, что разработка и использование генеративного ИИ будет безопасным, надёжным и справедливым. К сожалению, история показала, что мы не можем полагаться на то, что крупные технологические компании сами решат эту проблему”, – заявил Финд Мирстад, директор по цифровой политике Норвежского совета по защите прав потребителей.
К призыву присоединились 14 других организаций по защите прав потребителей из Европы и США на фоне сообщений о том, что OpenAI, компания, стоящая за чат-ботом ” data-html=”true” data-original-title=”ChatGPT” >ChatGPT, активно лоббирует европейских чиновников с целью ослабить законодательный акт ЕС об ИИ.
“Очень важно, что Евросоюз сделает законодательный акт об искусственном интеллекте максимально непроницаемым для защиты потребителей от вредных применений этой технологии”, – сказала Урсула Пахль, заместитель генерального директора Европейской организации потребителей. Она также добавила: “Мы призываем институты ЕС противостоять мощному лоббированию крупных технологических компаний, которые пытаются подорвать безопасность в будущем законе”.
Пока законодательный акт ЕС об ИИ не вступит в силу и не будет создана международная рамка регулирования ИИ, национальные органы должны действовать и применять существующее законодательство в области защиты данных, безопасности и прав потребителей, заявили представители потребительских групп.
“Компании не могут быть освобождены от существующих регулирований ЕС, а потребители не должны вводиться в заблуждение только потому, что эта технология новая”, – подчеркнула Пахль.
В вышеупомянутом отчёте подчёркиваются риски генеративного ИИ, которые, по мнению Норвежского совета, не должны быть проигнорированы. Среди них – манипуляция, предвзятость, проблемы с конфиденциальностью, влияние на труд и т.п.
Отчёт также предупреждает, что технологии искусственного интеллекта сконцентрированы в руках нескольких крупных технологических компаний, которые работаю непрозрачно и не несут должной ответственности.
Норвежская организация также призывает к усилению защиты прав потребителей и разработке “всеобъемлющей” стратегии ИИ, основанной на жёстких принципах для использования генеративного ИИ в публичном секторе.
“Данная технология не является абсолютно неконтролируемой силой. Она должна быть адаптирована и структурирована в соответствии с основными правами и ценностями общества”, – подытожил Финд Мирстад.
Технологические компании постоянно соревнуются в интеграции ИИ в свои сервисы. Тем не менее, они часто высказывают свои собственные опасения по поводу работы ИИ. Так, OpenAI в своё время рекомендовала Microsoft повременить с интеграцией языковой модели GPT-4 в Bing, а Google советует своим сотрудникам не раскрывать конфиденциальную информацию чат-боту Bard, а также не использовать во внутренних проектах компании код, сгенерированный этой нейросетью.