Недавно опубликованные внутренние документы британской железнодорожной компании Network Rail раскрывают тревожную информацию: тысячи пассажиров поездов в Великобритании могли быть незаметно отслежены системой искусственного интеллекта от Amazon. Система распознавания лиц использовалась для предсказания возраста, пола и потенциальных эмоций путешественников с целью возможного использования этих данных в рекламных системах.
Как оказалось, в течение последних двух лет в восьми железнодорожных станциях Великобритании, включая Лондонские Юстон и Ватерлоо, Манчестер Пикадилли и другие, тайно тестировались технологии ИИ. Целью было оповещение сотрудников о происшествиях на станции и снижение уровня преступности.
Технология распознавания объектов, которая может идентифицировать предметы на видео, использовалась для выявления проникновений на пути, мониторинга переполненности платформ, определения антисоциального поведения и предотвращения краж велосипедов.
Испытания проводились под непосредственным руководством Network Rail и включали использование “умных” камер видеонаблюдения и старых камер, подключенных к облачной системе анализа. В документах, датированных апрелем 2023 года, отмечается, что на каждой станции было установлено от пяти до семи камер или датчиков. Один из экспериментов включал систему для определения риска самоубийств, но она была признана ненужной и не была заменена после выхода из строя.
Особое внимание привлекли эксперименты по анализу демографических данных пассажиров. Эти системы могли использовать изображения с камер для статистического анализа возраста и пола, а также для анализа эмоций, таких как радость, грусть и гнев. Изображения анализировались системой Amazon Rekognition, что позволяло измерять “удовлетворённость” пассажиров и использовать данные для максимизации доходов от рекламы и торговли.
Однако исследователи в области ИИ предупреждают, что использование технологий для определения эмоций ненадёжно. В октябре 2022 года Управление комиссара по информации Великобритании выпустило заявление, предупреждающее о “незрелости” этих технологий и их возможной неработоспособности.
Network Rail не ответила на вопросы о текущем состоянии использования ИИ, анализе эмоций и проблемах конфиденциальности. Представитель компании заявил, что они серьёзно относятся к безопасности железнодорожной сети и используют передовые технологии для защиты пассажиров и инфраструктуры.
Документы также показывают, что камеры на одной из станций помогли полиции ускорить расследование краж велосипедов, позволив точнее находить велосипеды на видео. В других испытаниях использовались сенсоры для обнаружения скользких полов и переполненных мусорных баков, что помогало оперативно реагировать на возникающие проблемы.
Правозащитники выражают озабоченность по поводу недостаточной прозрачности и обсуждения использования ИИ в общественных местах. В одном из документов по оценке вопросов защиты данных говорится о “пренебрежительном отношении” к людям, которые могут беспокоиться о конфиденциальности.
Тем временем, использование ИИ-систем для мониторинга массовых мероприятий растёт по всему миру. Так, во время Олимпийских игр в Париже в этом году ИИ-системы видеонаблюдения будут использоваться для отслеживания толп, выявления оружия и оставленных предметов.
Ассоциированный профессор психологии Института этики ИИ Оксфордского университета Карисса Велиз отмечает, что системы, которые не идентифицируют людей, лучше тех, которые это делают, но она выражает беспокойство по поводу возможного расширения слежки и потери свобод.