ИИ как фабрика лжи: новый вызов для аналитиков дезинформации

Исследователи из Иллинойского технологического института выявили, что дезинформация, генерируемая большими языковыми моделями (Large Language Model, LLM), представляет собой более серьёзную угрозу по сравнению с дезинформацией, созданной человеком. Исследование ученых будет представлено на предстоящей международной конференции International Conference on Learning Representations.

Проблема обусловлена тем, что LLM-модели активно насыщают интернет сомнительным контентом. Например, аналитическая компания NewsGuard обнаружила 676 сайтов, генерирующих новости с минимальным участием человека, а также отслеживает ложные нарративы, созданные с помощью ИИ.

Дезинформация в исследовании возникает из-за того, что ” data-html=”true” data-original-title=”ChatGPT” >ChatGPT и другие LLM с открытым исходным кодом, включая

LLaMA предназначена для выполнения различных задач, связанных с обработкой естественного языка, включая перевод, суммаризацию, ответы на вопросы и многое другое.

Модель использует сложные алгоритмы, чтобы лучше понимать и интерпретировать человеческий язык, обеспечивая более точные и убедительные текстовые ответы.

Public Release.