Если вы когда-либо изливали душу ” data-html=”true” data-original-title=”ChatGPT” >ChatGPT, делясь своими жизненными невзгодами, то ответы чатбота, вероятно, казались вам вполне утешительными. Новейшие модели искусственного интеллекта поражают своей способностью генерировать человекоподобные отклики, создающие ощущение понимания и сопереживания. Их “эмпатичность” уже привлекла пристальное внимание психотерапевтического сообщества, и многие специалисты размышляют о том, смогут ли ИИ-системы ассистировать в терапевтических сессиях.
В основе этого феномена лежит “теория разума” – фундаментальный когнитивный навык, позволяющий людям распознавать и интерпретировать мысли, намерения, эмоциональные состояния других. Благодаря теории разума мы можем представить себя на месте собеседника, уловить подтекст его слов, определить, иронизирует ли он, лжет или чем-то расстроен.
В новаторском исследовании , опубликованном в авторитетном журнале Nature Human Behavior, ученые из Университетского медицинского центра Гамбург-Эппендорф решили выяснить, способны ли ИИ-модели, лежащие в основе таких систем, как ChatGPT, подобно людям разгадывать переживания других людей.
Для этого исследователи использовали серию хорошо зарекомендованных в психологии тестов, специально разработанных для оценки различных аспектов теории разума у человека. Эти тесты включали задания на понимание ложных убеждений, распознавание иронии, подтекста, обнаружение социальных оплошностей (ситуаций, когда кто-то говорит или делает что-то неуместное) и другие.
В экспериментах ученые сравнили две передовые семьи языковых моделей ИИ, включая GPT серию от OpenAI с моделью GPT-4, лежащей в основе ChatGPT, а также LLaMA 2 от Meta*, с более чем 1900 людьми. Испытуемым, как людям, так и ИИ-системам, предлагалось оценить ментальные установки вымышленных персонажей на основе текстовых описаний социальных ситуаций.
Результаты оказались поразительными и продемонстрировали серьезные успехи современных языковых моделей в имитации некоторых аспектов. Так, в тесте на распознавание иронии GPT-4 показала результаты на уровне, даже превосходящем человеческий. А в задании на обнаружение социальных оплошностей модель LLaMA 2 превзошла как среднестатистического человека, так и GPT-4, продемонстрировав почти стопроцентную точность.
В ряде тестовых сценариев искусственный интеллект все же проявлял слабость, указывающую на ограниченность его “понимания” контекстной составляющей ситуации. К примеру, в задании на выявление ложных убеждений, где требовалось предугадать, где вымышленный персонаж станет искать предмет после его перемещения, алгоритмы зачастую давали неверные ответы даже при незначительном изменении условий задачи.
Также ИИ-системы не всегда успешно справлялись с распознаванием социальных оплошностей в ситуациях, корректная интерпретация которых требовала учета более широкого социального контекста и общепринятых норм поведения, явно не объясненных в постановке задачи.
По мнению авторов исследования, ошибки ИИ в таких случаях могут объясняться тем, что современные языковые модели не обладают глубинным пониманием социальных конвенций и не воссоздают в полной мере когнитивные процессы людей, а лишь имитируют некоторые их проявления на основе статистики.
Тем не менее, ученые подчеркнули важность применения разнообразных психологических и нейрокогнитивных тестов при изучении внутренних механизмов работы ИИ. Такие инструменты помогают лучше понять алгоритмы “мышления” этих систем и выявить их сильные и слабые стороны, что, в свою очередь, позволит создавать более безопасные, надежные и этичные решения.
В заключение исследователи отметили: на данный момент полноценная “искусственная теория разума”, полностью имитирующая человеческие когнитивные способности, остается лишь идеей. Но результаты работы показывают, что эта идея может стать реальностью в ближайшем будущем благодаря непрекращающемуся прогрессу. Развитие более совершенных систем с продвинутыми социально-когнитивными возможностями может открыть новые горизонты в разных сферах, включая психотерапию и коммуникацию человека с машиной.