Генеративный искусственный интеллект (GenAI) становится всё более популярным инструментом в бизнесе. Компании либо уже внедряют такие решения, либо активно изучают возможности их интеграции. Однако, несмотря на растущий интерес, достоверных данных о реальном использовании GenAI и связанных с ним рисках до сих пор недостаточно.
Отчёт “Enterprise GenAI Data Security Report 2025” , подготовленный компанией LayerX, проливает свет на эту тему. Исследование основано на анализе данных корпоративных клиентов и раскрывает, как сотрудники используют GenAI в повседневной работе. Результаты оказались неожиданными: почти 90% использования GenAI происходит без контроля со стороны IT-отделов. Это создаёт серьёзные угрозы, включая утечку конфиденциальной информации и несанкционированный доступ к данным.
Несмотря на ажиотаж вокруг GenAI, его активное применение в корпоративной среде пока ограничено. Сейчас, согласно отчёту, лишь 15% сотрудников обращаются к таким инструментам ежедневно. Однако аналитики LayerX прогнозируют, что эта цифра будет быстро расти, особенно с учётом того, что 50% пользователей уже используют GenAI хотя бы раз в две недели.
Особое внимание в отчёте уделяется разработчикам программного обеспечения, которые составляют 39% регулярных пользователей GenAI. Это вызывает опасения, поскольку повышает риск утечки исходного кода и внедрения потенциально опасных фрагментов в корпоративные проекты.
Одной из ключевых проблем является использование GenAI через личные аккаунты и неподконтрольные IT-отделам каналы. LayerX, благодаря своей технологии, отслеживает такие случаи. Исследование показало, что 72% сотрудников используют GenAI, такие как ChatGPT, через личные учётные записи. Только 12% обращаются к этим инструментам через корпоративные аккаунты с единым входом (SSO).
Это делает почти 90% использования GenAI невидимым для компаний, что создаёт серьёзные риски для безопасности данных.
Согласно отчёту, пользователи, которые вставляют данные в GenAI-инструменты, делают это в среднем 4 раза в день. Часто это касается конфиденциальной информации: бизнес-данных, клиентских сведений, финансовых планов и даже исходного кода. Такая практика ставит под угрозу безопасность компаний, особенно если данные попадают в руки злоумышленников.
Традиционные инструменты безопасности не справляются с задачами защиты в условиях современного ИИ-ориентированного рабочего процесса. LayerX рекомендует внедрять браузерные решения, которые обеспечивают видимость использования ИИ-приложений, включая ChatGPT, ИИ-расширения для браузеров и другие инструменты.
Внедрение GenAI открывает новые возможности для бизнеса, но без должного контроля и продуманной стратегии безопасности оно может стать источником серьёзных угроз. Компаниям необходимо уже сейчас адаптировать свои системы защиты, чтобы не только использовать потенциал искусственного интеллекта, но и избежать рисков, связанных с утечкой данных и несанкционированным доступом.