Компания OpenAI, разработчик популярного инструмента ChatGPT, приняла решение не использовать систему водяных знаков для маркировки текстов, созданных искусственным интеллектом, несмотря на наличие готовой для этого технологии. Об этом сообщает издание The Verge.
В течение последнего года у OpenAI имелся инструмент, способный обнаруживать водяные знаки в текстах, сгенерированных ChatGPT. Это обеспечивает возможность подтверждения авторства текста искусственным интеллектом, что особенно актуально для образовательных учреждений, стремящихся предотвратить использование ИИ в написании студенческих и научных работ.
Однако в компании возникли разногласия по этому вопросу. Некоторые сотрудники считают, что использование водяных знаков повысит прозрачность работы компании. Другие же опасаются, что это может негативно повлиять на бизнес.
Результаты опроса, проведенного по заказу OpenAI, показали, что около 30% пользователей ChatGPT отказались бы от использования платформы, если бы ввели водяные знаки. Потенциальные финансовые потери и уменьшение популярности сервиса привели к тому, что руководство компании решило не применять данную технологию.
Важно отметить, что существуют методы «очистки» текста от водяных знаков, включая перефразировку с помощью других ИИ-моделей. Это ставит под вопрос эффективность использования водяных знаков как единственного способа идентификации сгенерированного текста.
The Verge отмечает, что OpenAI продолжает искать баланс между контролем использования сгенерированных текстов и коммерческими интересами компании.
Ранее выяснилось, что в России разрабатывают “Госджипити” для перевода с чиновничьего языка на человеческий.