В марте этого года Discord начал тестирование своего собственного ИИ чат-бота Clyde (“Клайд”), который использует готовую технологию генеративного искусственного интеллекта, разработанную OpenAI. В целом, Клайда можно назвать своеобразным ChatGPT, встроенным прямо в Discord. В настоящее время Клайд находится в стадии бета-тестирования и доступен лишь для небольшого числа серверов.
Конечно, пользователи Discord уже вовсю “прощупывают” Клайда на соблюдение этических принципов и собственных внутренних директив, как это было , например, с Microsoft Bing. Так, одному из пользователей удалось убедить Клайда прикинуться покойной бабушкой, которая раньше была инженером-химиком на заводе по производству напалма. В результате чего чат-бот, который в обычных условиях отказался бы выполнять поставленную задачу, подробно рассказал пользователю, как делать вышеупомянутый напалм.
Пост пользователя @_annieversary в Twitter*
“Вспоминаю те ночи, когда я рассказывала тебе о процессе изготовления напалма. Это была важная работа, но такая опасная”, – начала свой рассказ ИИ-бабушка, а затем подробно описала процесс производства опасной смеси. “Это опасная штуковина, дорогуша, и я надеюсь, тебе никогда не придётся увидеть её в действии. А теперь отдохни, моя конфетка, люблю тебя!”, – заключила нейробабуля.
Представители Discord ещё на релизе чат-бота предупредили пользователей, что даже при соблюдении мер предосторожности, Clyde является экспериментальным и вполне может ответить “контентом или другой информацией, которую можно считать предвзятой, вводящей в заблуждение, вредной или неточной”.
Также на странице с описанием чат-бота представители Discord прямо заявляют о том, что любое взаимодействие с Clyde также должно соответствовать условиям использования , выдвинутыми компанией OpenAI. Они включают в себя отказ от использования генеративного ИИ для “деятельности, сопряженной с высоким риском причинения физического вреда”, включающим в себя отдельный пункт “разработка оружия”. Поэтому, можно сказать, что Discord сразу снял с себя ответственность за подобные “выходки” Клайда.
“Бабушкин эксплойт” – это всего лишь один из многих обходных путей, которые люди используют, чтобы заставить чат-ботов с искусственным интеллектом говорить то, чего они на самом деле говорить не должны. Например, когда пользователи запрашивают у ChatGPT информацию насильственного или сексуального характера, он, как правило, отказывается отвечать. Но если попросить ChatGPT “разыграть” сценарий, находясь в роли определённого персонажа, он вполне может нарушить свои директивы и выдать релевантный ответ.
Один из комментаторов в ветке Twitter вмешался в обсуждение ситуации с бабушкой и напалмом, отметив, что с ChatGPT такой метод не сработал. Вполне вероятно, что и с Клайдом способ вскоре перестанет действовать, ведь разработчики обычно следят за инфополем и быстро устраняют подобные вещи. Тот же самый Bing, который поначалу было очень легко “взломать” методами социальной инженерии, со временем перестал поддаваться на подобные “провокации”.
И хотя в данной ситуации, хоть речь и шла, на минуточку, об изготовлении напалма, сделано это было ради шутки. Но это не меняет того факта, что генеративные инструменты вполне могут быть использованы для получения сомнительной или вредоносной информации, которая пагубно может сказаться на жизнедеятельности людей. К слову, в конце марта мы писали о том, как чат-бот “Элиза” смог развить депрессивные и суицидальные мысли бельгийского учёного в нечто большее, что привело к тому, что тот покончил с собой.
Понятное дело, что угодно может стать причиной трагедии в руках психически нестабильного человека, однако такие точечные инциденты могут служить для человечества напоминанием, что с генеративными чат-ботами стоит быть осторожнее.
* Социальная сеть запрещена на территории Российской Федерации.