Исследователи из Иллинойского технологического института выявили, что дезинформация, генерируемая большими языковыми моделями (Large Language Model, LLM), представляет собой более серьёзную угрозу по сравнению с дезинформацией, созданной человеком. Исследование ученых будет представлено на предстоящей международной конференции International Conference on Learning Representations.
Проблема обусловлена тем, что LLM-модели активно насыщают интернет сомнительным контентом. Например, аналитическая компания NewsGuard обнаружила 676 сайтов, генерирующих новости с минимальным участием человека, а также отслеживает ложные нарративы, созданные с помощью ИИ.
Дезинформация в исследовании возникает из-за того, что ” data-html=”true” data-original-title=”ChatGPT” >ChatGPT и другие LLM с открытым исходным кодом, включая
LLaMA предназначена для выполнения различных задач, связанных с обработкой естественного языка, включая перевод, суммаризацию, ответы на вопросы и многое другое.
Модель использует сложные алгоритмы, чтобы лучше понимать и интерпретировать человеческий язык, обеспечивая более точные и убедительные текстовые ответы.