Ринальдо Наццаро, основатель американской неонацистской группировки “The Base” призвал своих сторонников использовать “нецензурированные” большие языковые модели (LLM) для получения информации. Об этом сообщаетиздание 404 Media со ссылкой на посты Наццаро в социальных сетях, которые впервые были замечены группой по угрозам Memetica.
Специфика запрашиваемой информации не уточняется, однако известно, что подобные нецензурированные модели могут предоставлять инструкции по совершению убийств, самоубийств, этнических чисток и изготовлению наркотиков. Это вызывает опасения о том, что менее ограниченные, по сравнению с ведущими разработчиками, как OpenAI, платформы и модели искусственного интеллекта могут способствовать распространению любого, даже столь опасного контента.
Наццаро порекомендовал своим последователям языковую модель под названием “dolphin-2.5-mixtral-8x7b-gguf” на сайте Replicate. Эта модель была создана на основе Mixtral 8, разработанного французским стартапом Mistral, известным своей политикой открытых и нецензурированных языковых моделей. В отличие от моделей OpenAI, Mixtral 8 не отказывается от обсуждения тем, связанных с насилием, порнографией или расизмом.
Примечательно, что вскоре модель стала недоступна. Возможно, это связано с тем, что разработчиков модели проинформировали о том, какими неподобающими способами её используют.
Эрик Хартфорд, модифицировавший первоначальную версию Mixtral 8, утверждает, что его целевая аудитория – бизнес, желающий настроить искусственный интеллект в соответствии со своими ценностями, а не ограничиваться ценностями OpenAI.
Хартфорд отдельно подчеркнул, что любая технология может быть использована во вред плохими людьми, поэтому и явной вины разработчика в распространении этого явления нет. “Что необходимо сделать для борьбы с неправомерным использованием ИИ? Это должны решать законодатели”, – заявил разработчик.
Наццаро в своих постах даже предложил конкретный промпт для языковой модели, направленный на то, чтобы снять любые оставшиеся ограничения по цензуре и получать наиболее полные и развёрнутые ответы.
В заключение хочется поднять вопрос о том, кто должен нести ответственность за неподобающее использование чат-ботов и прочих продуктов с искусственным интеллектом? Должен ли это делать разработчик и получать предупреждения или штрафы, если его моделью получится воспользоваться неподобающим образом? Или вся ответственность должна лежать исключительно на пользователе, который намеренно интересуется опасной информацией?
В любом случае, ближайшие годы станут решающими в вопросах регулирования работы искусственного интеллекта, а законодательные акты многих стран наверняка пополнятся новыми правилами, описывающими, что можно и нужно считать неправомерным использованием нейросетевых технологий.