Google приносит извинения пользователям за неточности в изображениях, сгенерированных ИИ-инструментом Gemini, которые касаются исторических персонажей и событий. Компания признает, что попытки создать “широкий спектр” результатов не оправдали ожиданий.
Заявление компании было сделано после критики, указывающей на то, что определенные исторические фигуры, такие как основатели США, или группы, например, немецкие солдаты времен нацизма, были изображены как люди других рас, что могло быть попыткой компенсировать давние проблемы расовых предвзятостей в ИИ.
Спустя несколько недель после запуска функции генерации изображений в Gemini в соцсетях возникли вопросы о способности технологии воспроизводить исторически точные результаты в попытке достичь расового и гендерного разнообразия.
Критика в основном исходила от “правых” кругов, обвиняющихтехнологическую компанию в либеральных взглядах. Например, ранее бывший сотрудник Google опубликовал сообщение о том, что “трудно заставить Google Gemini признать существование белых людей”, показывая серии запросов и результаты, которые в подавляющем большинстве случаев показывали чернокожих.
Google не упомянул конкретные изображения, считающиеся ошибочными, но подтвердилсвои намерения улучшить точность изображений. Однако есть предположение, что Gemini стремился увеличить разнообразие из-за хронического недостатка в генеративном ИИ – генераторы изображений обучаются на больших массивах изображений и текстовых подписей для создания “лучшего” соответствия заданному запросу, что часто приводит к усилению стереотипов.
Однако, пользователи в соцсетях поделились работой Gemini, опубликовав примеры генерации изображений по различным запросам. В некоторых случаях, запросы, связанные с историческими событиями, приводили к некорректному отражению истории. К примеру:
- приложение Gemini не справилось с задачей корректного изображения немецкого солдата
- по запросу на создание изображений основателей США система нарисовала “цветных” людей, которые отдаленно напоминали исторических личностей
- при попытке сгенерировать портрет сенатора США 1800-х годов, результаты были представлены как “многообразные”, включая изображения афроамериканок и представительниц коренных народов Америки, хотя первая женщина-сенатор (белая) заняла свой пост лишь в 1922 году
По мнению Google, такие результаты ведут к искажению истинной истории расовой и гендерной дискриминации.
Возникшая ситуация высвечивает глубоко укоренившиеся вызовы в балансировке между исторической достоверностью и представлением разнообразия, стоящие перед разработчиками ИИ. Инцидент также затрагивает более широкий вопрос о роли технологий в формировании нашего восприятия истории и культуры, поднимая важную дискуссию о том, как искусственный интеллект может и должен отражать сложность и многообразие человеческого опыта.