Итальянские исследователи недавно обнаружили , что данные, созданные искусственным интеллектом, могут вводить в заблуждение. Главный вывод исследования, проведенного Джузеппе Джаннаккаре, хирургом-офтальмологом из Университета Кальяри, заключается в том, что ChatGPT может генерировать убедительные, но ложные данные.
Джаннаккаре отмечает, что ChatGPT за считанные минуты создал поддельный набор данных о сотнях пациентов. Это открытие вызывает беспокойство, особенно в свете повышенной угрозы использования фальсифицированных данных в медицинских исследованиях.
Словарь Кембриджского университета даже назвал “галлюцинировать” (производство ложной информации большими языковыми моделями) словом года. Примеры неправильного использования ChatGPT уже привели к санкциям: двое адвокатов, использовавшие его для подготовки материалов по делам, были оштрафованы на 5000 долларов за использование вымышленной информации.
Исследователи использовали ChatGPT, подключенный к продвинутой модели анализа данных на Python, для генерации данных клинических испытаний по лечению кератоконуса. Однако сгенерированные данные были полностью фиктивными, несмотря на убедительность.
Джаннаккаре подчеркивает важность осознания “темной стороны ИИ” и необходимости разработки более эффективных методов обнаружения мошенничества. Он также отмечает, что адекватное использование ИИ может значительно способствовать научным исследованиям.
Статья, опубликованная в журнале JAMA Ophthalmology, указывает, что при более тщательном анализе данных можно выявить признаки фальсификации, такие как неестественное количество возрастов субъектов, заканчивающихся на 7 или 8.