Научные статьи ChatGPT смогли обмануть академиков
Группа исследователей во главе с Северо-Западным университетом использовала ChatGPT для написания 50 рефератов в стиле 5 различных научных журналов.
4 академика, которые были разделены на 2 группы, определяли, кто писал реферат – человек или искусственный интеллект. Участники одной группы проверяли настоящие рефераты, а второй – сгенерированные, затем рефераты меняли друг с другом. Каждый участник рассмотрел 25 научных докладов.
В 32% случаев сгенерированные статьи успешно прошли проверку – академики действительно думали, что они были написаны людьми. При этом проверяющие знали, что среди рефератов есть те, которые были написаны искусственным интеллектом. Также рецензенты заявили, что было очень сложно отличить настоящие рефераты от поддельных. В некоторых докладах ChatGPT подменял факты об исследованиях, которые приводил в качестве доказательств, чем и выдавал себя.
Фотосток Getty Images подал в суд на Stability AI за нарушение авторских прав
Согласно иску, Stability AI нарушил права на интеллектуальную собственность, незаконно скопировав изображения, защищенные авторским правом, с сайта Getty Images для обучения инструмента генерации изображений.
Позиция Getty Images заключается в том , что “Stability AI незаконно скопировала и обработала миллионы изображений, защищенных авторским правом, и связанные с ними метаданные, принадлежащие Getty Images, без лицензии в интересах коммерческих интересов Stability AI и в ущерб создателям контента”.
Вина Stability AI, по словам Getty Images, заключается в том, что компания не спрашивала разрешения на использование и не платила за контент. Getty заключает лицензионные соглашения с технологическими компаниями, предоставляя им доступ к изображениям для моделей обучения таким образом, который соблюдает права интеллектуальной собственности. Но Stability AI даже не пыталась получить лицензию.
Создан конкурент ChatGPT
Стартап по безопасности ИИ Anthropic выпустил своего чат-бота Claude для ограниченного числа пользователей в формате тестирования.
Claude похож на ChatGPT и также обучался на больших объемах текста, извлеченных из Интернета. Он использует обучение с подкреплением для ранжирования сгенерированных ответов. OpenAI использует людей для обозначения хороших и плохих ответов, в то время как Anthropic вместо этого использует автоматизированный процесс.
Инженеры компании Scale, занимающейся маркировкой данных, решили сравнить его с ChatGPT в способности генерировать код, решать арифметические задачи и даже разгадывать загадки.
Исследователи заключили , что “Claude – серьезный конкурент ChatGPT с улучшениями во многих областях”. Ответы Claude более многословны и натуралистичны. Его способность связно писать о себе, своих ограничениях и своих целях может позволить ему более естественно отвечать на вопросы по любому направлению.
В генерации кода Claude проигрывает ChatGPT, так как его код содержит больше ошибок. Для задач вычисления и логических рассуждений Claude и ChatGPT находятся на одном уровне.