OpenAI разработала метод для выявления текстов, написанных с помощью ChatGPT, но пока не выпустила его, несмотря на обеспокоенность по поводу использования ИИ для обмана. По даннымThe Wall Street Journal, проект уже около года готов к запуску, но решение о выпуске постоянно откладывается.
Сотрудники OpenAI разрываются между стремлением к прозрачности и желанием привлечь и удержать пользователей. Опрос, проведенный среди лояльных пользователей ChatGPT, показал, что почти 30% из них будет недовольна внедрением подобной технологии. Представитель компании отметил, что инструмент может негативно повлиять на неносителей английского языка.
Некоторые сотрудники поддерживают выпуск, считая, что преимущества перевешивают риски. Гендиректор OpenAI Сэм Альтман и технический директор Мира Муратти участвовали в обсуждениях по поводу инструмента. Альтман поддерживает проект, но не настаивает на его немедленном выпуске.
Система ChatGPT прогнозирует, какое слово или фрагмент слова должно следовать дальше в предложении. Обсуждаемый “античит” немного изменяет процесс выбора этих токенов, оставляя едва заметный для человеческого глаза водяной знак. Водяные знаки, по внутренним документам, показывают эффективность на 99,9%.
Некоторые сотрудники высказывают опасения, что водяные знаки можно стереть простыми методами, например, с помощью перевода текста через Google Translate или добавления и удаления эмодзи. Также остается нерешенным вопрос о том, кто будет использовать детектор: доступ для слишком узкой категории пользователей доступ сделает его бесполезным, а слишком широкий – может привести к раскрытию технологии злоумышленниками.
В начале 2023 года OpenAI выпустила алгоритм для выявления текста, но его точность составила всего 26%, и через 7 месяцев компания отказалась от инструмента. Внутренние обсуждения водяного знака начались до запуска ChatGPT в ноябре 2022 года и стали постоянным источником напряженности.
В апреле 2023 года OpenAI заказала опрос, который показал, что люди по всему миру поддерживают идею инструмента для обнаружения ИИ с соотношением 4 к 1. Однако 69% пользователей ChatGPT выразили опасения, что технология выявления обмана приведет к ложным обвинениям в использовании ИИ, а почти 30% заявили, что будут меньше использовать ChatGPT, если будут внедрены водяные знаки.
Сотрудники OpenAI пришли к выводу, что инструмент водяных знаков работает хорошо, но результаты опроса пользователей все еще вызывают беспокойство. Компания продолжит искать менее спорные подходы и планирует в этом году разработать стратегию для формирования общественного мнения о прозрачности ИИ и возможных новых законах на эту тему.
Существует целый ряд сервисов и инструментов, способных довольно точно определить, был ли текст сгенерирован нейросетью или написан человеком. Среди таких сервисов, например, GPTZero, ZeroGPT и OpenAI Text Classifier. Однако, как оказалось, и на эти сервисы всерьёз полагаться не стоит.