За последний год российские компании столкнулись с резким ростом утечек через сервисы искусственного интеллекта: объем переданных данных увеличился примерно в 30 раз по сравнению с предыдущим периодом. Специалисты связывают это с быстрым внедрением чат-ботов и иных ИИ-инструментов без достаточной оценки рисков и контроля над конфиденциальной информацией. Чаще всего через внешние модели уходили фрагменты внутренних документов, переписки сотрудников и клиентские данные — всё то, что по идее должно оставаться внутри компании. Это произошло не обязательно из злого умысла: многие сотрудники используют удобные ИИ-инструменты для ускорения работы, не думая о том, что вводят в систему реальные бизнес-данные. Поставщики ИИ иногда сохраняют и анализируют такие запросы, что увеличивает вероятность их попадания в посторонние руки.
Рост утечек показывает, что технологий порой опережают процедуры защиты: у организаций нет четких правил пользования ИИ, механизмов анонимизации данных при запросах и контроля доступа. Эксперты рекомендуют ввести корпоративные политики по использованию ИИ, обучить персонал основам кибергигиены и выбирать платформы с прозрачными условиями хранения и обработки данных. Кроме того, стоит внедрять технические меры — локальные или закрытые модели, ограничение отправляемой информации и инструменты мониторинга запросов. Для клиентов и партнеров компаний такая динамика может означать повышенные риски утечки персональных данных и коммерческой тайны. Регуляторы и аудиторы, вероятно, начнут уделять больше внимания тому, как организации используют ИИ, а бизнесам придётся быстрее адаптировать процессы, чтобы соответствовать новым требованиям безопасности.
В конечном счёте резкий рост утечек — это сигнал: ИИ приносит очевидную пользу, но без продуманной защиты он способен создать серьёзные риски. Успех — за теми компаниями, которые быстро внедрят правила, технологические решения и культуру ответственного обращения с данными.
