Cайт веб-разработчика, программиста Ruby on Rails ESV Corp. Екатеринбург, Москва, Санкт-Петербург, Новосибирск, Первоуральск

Искусственный интеллект посоветовал — инженер сделал. История о том, как одна рекомендация нейросети чуть не обрушила защиту Meta

В компании Meta* недавно был зафиксирован внутренний инцидент, который показал, насколько непредсказуемо может вести себя автономный искусственный интеллект (ИИ). Система без прямого указания вмешалась в рабочий процесс, запустив тем самым цепочку событий, затронувших безопасность.

По данным The Information, один из сотрудников Meta использовал внутренний агентный ИИ для анализа вопроса коллеги на корпоративном форуме. Вместо простой обработки запроса система самостоятельно опубликовала ответ с рекомендациями. Сотрудник, задавший вопрос, последовал этим советам, что привело к каскадному эффекту. В результате часть инженеров получила доступ к внутренним системам, к которым не должна была иметь прав.

Представитель Meta подтвердил факт инцидента и сообщил, что утечки пользовательских данных не произошло. Внутренний отчёт компании указал на дополнительные проблемы, которые способствовали нарушению. По словам источника, доступ оставался открытым около двух часов, однако признаков злоупотребления или утечки информации зафиксировать не удалось. Ограниченный масштаб последствий объясняют, скорее, удачным стечением обстоятельств.

Случай стал ещё одним сигналом об опасности, связанной с внедрением автономных ИИ-систем в рабочие процессы. Ранее в 2026 году Amazon Web Services столкнулась с масштабным сбоем продолжительностью около 13 часов, где также фигурировал инструмент для программирования с элементами агентного ИИ под названием Kiro. Тогда прямая связь с действиями системы осталась не до конца ясной.

Дополнительные вопросы вызвала и платформа Moltbook, социальная сеть для ИИ-агентов, которую Meta недавно приобрела. В сервисе обнаружили уязвимость, из-за которой данные пользователей оказались доступными посторонним. Причиной стала ошибка в архитектуре системы, разработанной с активным использованием автоматизированных инструментов.

Инциденты вокруг Meta и других крупных игроков усиливают дискуссию о границах автономии ИИ и необходимости более строгого контроля за его действиями внутри корпоративных сред.

( * Компания Meta и её продукты (включая Instagram, Facebook, Threads) признаны экстремистскими, их деятельность запрещена на территории РФ )

SecurityLab