ИИ-помощник в вашем смартфоне может оказаться предателем

Интеграция генеративного ИИ в приложения для смартфонов, которыми мы пользуемся ежедневно, быстро набирает обороты. Это было предсказуемо – ChatGPT в прошлом году уже продемонстрировал огромный интерес пользователей к подобным технологиям. И вот теперь мы наблюдаем настоящий бум карманных ИИ-помощников.

Однако специалисты считают, что нам стоит сбавить темп – вместе с удобством приходят и серьезные риски для безопасности и конфиденциальности.

Кажется, в отношении чат-ботов на основе генеративного ИИ у нас у всех есть одна общая слабость. Мы можем проявлять осторожность при установке приложений, выдаче разрешений, выборе браузеров и обмене личными материалами в Facebook. Но стоит только начать беседу с чат-ботом, как мы тут же забываем обо всех мерах предосторожности. Людям кажется, что они общаются с новым полезным другом, которому можно довериться и попросить о чем угодно.

Но это всего лишь интерфейс огромной вычислительной инфраструктуры, в конечном счете финансируемой за счет рекламы и торговли данными.

После анонса Bard от Google, который вскоре трансформируется в Gemini, и множества новых приложений, Google попросила всех пользователей Android и iPhone быть максимально осторожными.

“Пожалуйста, не упоминайте в беседах конфиденциальную информацию или факты, которыми вы не хотели бы делиться ни с кем из проверяющих записи диалогов. Или с Google, которая может использовать эти сведения для улучшения собственных инструментов, сервисов и технологий машинного обучения”, – предупреждают разработчики.

К счастью, компания заверяет, что пока разговоры в Gemini Apps не будут использоваться для показа таргетированной рекламы, хотя в будущем все может измениться.

Реальная проблема заключается в том, что пользователи делятся весьма личной и конфиденциальной информацией с ИИ-помощником, помогающими писать деловые планы, презентации для продаж или даже шпаргалки для школы. Когда человек выходит из чата, вопросы, которые он задавал, и полученные ответы сохраняются во внутренних базах и потенциально могут быть просмотрены.

Такой масштаб сбора и использования данных вполне характерен для всего нового сектора генеративного ИИ в целом. Предстоит выработать подходы к оценке уровней безопасности и конфиденциальности, обеспечиваемых различными компаниями в этой сфере, такими как Google или OpenAI.

Важным различием станет то, где происходит обработка данных – на устройстве пользователя или в облаке. Apple, вероятно, задействует возможности своих приложений и сервисов, работающих на смартфонах, если это действительно окажется эффективным методом. Известно, что компания уже проводит эксперименты для сравнения производительности в обоих режимах. Google же, учитывая иную инфраструктуру и приоритеты, скорее всего, будет в большей степени полагаться на облачные вычисления.

Миллионы владельцев смартфонов Android и iPhone уже столкнулись с непростым выбором – использовать новые приложения с интегрированным искусственным интеллектом вроде Gemini или нет. Вскоре такой выбор предстоит сделать всем.

С одной стороны, мы не можем полностью обезопасить себя и свои данные, продолжая пользоваться всеми преимуществами ИИ. Хотя в последние годы был достигнут огромный прогресс в защите приватности при использовании интернета и мобильных приложений. С другой – возможности, которые открываются перед пользователями нейросетей, настолько заманчивы, что отказаться от них сложно. Предстоит тщательно взвесить, что для нас важнее.

Google говорит, что можно отключить долгосрочное хранение данных в настройках Gemini. Но даже в этом случае разговоры будут храниться в базе данных в течение 72 часов. Подобные проблемы мы видим и в других сервисах.

Public Release.