В недавнем исследовании , проведённом специалистами из Университета Корка в Ирландии и опубликованном в журнале PLOS ONE, участники онлайн-эксперимента стали жертвами ложных воспоминаний о фильмах-ремейках, которых на самом деле не существует. Созданию поддельных воспоминаний послужил просмотр ряда видео с использованием технологии дипфейк.
Deepfake-видео – это ролики, созданные с помощью искусственного интеллекта, в которых с помощью искусственного интеллекта реалистично заменяются лица или голоса одних людей на лица или голоса других.
В последнее время инструменты для создания дипфейков стали намного дешевле и доступнее, что усилило дискуссии о потенциальных творческих возможностях, а также о потенциальных рисках – например, распространении ложной информации и манипулировании памятью зрителей.
Чтобы исследовать потенциальные риски, Гиллиан Мёрфи, один из авторов исследования, вместе с коллегами попросила 436 человек поучаствовать в онлайн-опросе, который включал просмотр видео с дипфейками фальшивых ремейков фильмов с другими актерами в главных ролях. Например, Уилла Смита в роли Нео (изначально исполненной Киану Ривзом) в фильме “Матрица” и Брэда Питта и Анджелины Джоли в фильме “Сияние”. Другими фальшивыми ремейками в исследовании стали видеофрагменты из фильмов “Индиана Джонс” и “Капитан Марвел”.
Для сравнения участники также смотрели клипы из настоящих ремейков, включая “Чарли и шоколадная фабрика”, “Вспомнить всё”, “Кэрри” и “Лара Крофт”. Кроме того, в некоторых случаях участники читали текстовые описания ремейков вместо просмотра дипфейков. Разумеется, участникам не сообщали, что дипфейки являются ложными, до конца опроса.
Как сообщает Мёрфи, дипфейк-ролики вызвали ровно такое же количество ложных воспоминаний, как и простые текстовые описания фальшивых фильмов. В среднем, практически половина участников (49%) после просмотра дипфейк-роликов или просмотра поддельных текстовых описаний были уверены, что фальшивые ремейки были настоящими.
Многие опрошенные даже сообщали, что помнят фальшивые ремейки лучше, чем оригиналы. Однако, так как уровень ложных воспоминаний от текстовых описаний был также высоким, технология дипфейк не показала себя какой-то особенно мощной по сравнению с другими инструментами для искажения памяти.
Большинство участников отметили, что им не нравится, когда технология дипфейк используется в съёмке фильмов, как это было, например, в последних частях франшизы “Форсаж” с покойным Полом Уокером. Опрошенные в основном ссылались на такие проблемы, как неуважение к художественной целостности и нарушение восприятия кино. Результаты данного исследования вполне могут помочь в разработке и регулировании технологии замены лиц и голоса в кино.
Что касается манипуляцией воспоминаниями, исследователи отдельно отметили следующее: “Хотя дипфейки вызывают большую озабоченность по многим причинам, текущее исследование показывает, что технология не показывает особенных преимуществ в искажении нашей памяти о прошлом”.
“По сути, это исследование показывает, что нам не нужны технические новшества для искажения памяти, мы можем сделать это очень легко и эффективно, используя прочие нетехнические средства”, – подытожили исследователи. Из этого можно сделать вывод, что значение дипфейков в роли манипуляции общественным сознанием и воспоминаниями людей – зачастую искусственно преувеличены.