Ученые из Американской ассоциации развития науки (AAAS) предостерегают нас от возможной опасности, которую представляют генеративные модели искусственного интеллекта (ИИ), например, такие как ChatGPT, DALL-E и Midjourney. Эти модели, по их мнению, могут распространять недостоверную и субъективную информацию, влияя на наши убеждения.
Генеративные модели ИИ создают новый контент, опираясь на уже существующие данные. Они могут генерировать тексты, изображения, аудио или видео материалы, которые могут использоваться в различных областях, включая образование, развлечения и исследования. Но в тоже время, их использование может представлять угрозу, если они создают недостоверную или предвзятую информацию, вводя людей в заблуждение.
В статье , авторы которой – ученые Celeste Kidd и Abeba Birhane, обсуждаются три ключевых принципа психологии, помогающих понять, почему генеративные модели ИИ могут с такой силой влиять на наши убеждения:
- Люди формируют более устойчивые убеждения, если информация исходит от уверенных в себе и обладающих знаниями источников. Например, дети лучше усваивают информацию от учителей, которые демонстрируют свою компетентность в предмете.
- Люди часто склонны преувеличивать возможности генеративных моделей ИИ и считать их превосходящими по сравнению с человеческими способностями. Это приводит к тому, что люди быстрее и более уверенно принимают информацию, генерируемую ИИ.
- Люди наиболее восприимчивы к новой информации, когда активно ее ищут, и склонны прочно держаться полученных знаний. Но эта информация может быть недостоверной или субъективной, если она создана генеративными моделями ИИ.