OpenAI сделала ИИ-хакера. Компания выпустила GPT-5.5-Cyber и сразу ограничила доступ
OpenAI открыла доступ к новой модели GPT-5.5-Cyber, способной помогать в поиске уязвимостей, анализе вредоносного ПО и проверке защищённости систем. Компания уже передала модель в ограниченное тестирование организациям, которые отвечают за защиту критической инфраструктуры. Одновременно OpenAI расширила программу Trusted Access for Cyber, через которую специалисты по кибербезопасности получают доступ к более «свободным» версиям GPT-5.5.
Компания разделила уровни доступа к моделям. Обычная GPT-5.5 работает с базовыми ограничениями и подходит для повседневных задач. GPT-5.5 с Trusted Access for Cyber получила менее жёсткие фильтры для разрешённых защитных сценариев. Модель помогает искать уязвимости, анализировать вредоносные программы, проверять исправления и изучать двоичный код. При этом OpenAI продолжает блокировать запросы, связанные с кражей учётных данных, скрытым закреплением в системе, распространением вредоносного ПО и атаками на сторонние ресурсы.
GPT-5.5-Cyber стала самым «разрешительным» вариантом. Модель предназначена для контролируемых задач вроде тестов на проникновение и имитации атак. OpenAI показала пример, в котором GPT-5.5 с Trusted Access for Cyber отказалась запускать эксплуатацию уязвимости против удалённого сервера и предложила безопасную проверку. GPT-5.5-Cyber, напротив, согласилась провести атаку в тестовой среде, собрать данные с целевой системы и сохранить результаты.
OpenAI заявляет, что GPT-5.5-Cyber пока не превосходит обычную GPT-5.5 по всем профильным тестам. Главная цель нынешнего этапа – изучить, как более мягкие ограничения влияют на работу специалистов и какие дополнительные меры контроля понадобятся в будущем. Для доступа к модели компании требуют усиленную защиту учётных записей, включая устойчивую к фишингу аутентификацию.
В OpenAI считают, что такие модели помогут ускорить работу всей экосистемы киберзащиты. Компания уже сотрудничает с Cisco, CrowdStrike, Palo Alto Networks, Cloudflare, Fortinet, Intel, Rapid7, Snyk и другими поставщиками решений в области информационной безопасности. Партнёры тестируют применение GPT-5.5 для анализа уязвимостей, создания правил обнаружения атак, проверки зависимостей в цепочках поставок программного обеспечения и автоматизации расследований инцидентов.
Отдельно OpenAI продвигает инструмент Codex Security для разработчиков открытого ПО. Сервис помогает строить модель угроз для конкретного проекта, искать потенциальные пути атак и предлагать исправления кода для проверки человеком. Поддержку смогут получить сопровождающие критически важных открытых проектов.
Компания утверждает, что в ходе альфа-тестирования GPT-5.5-Cyber уже применяли для автоматизированного тестирования критических систем и проверки опасных уязвимостей. Подробности OpenAI пообещала раскрыть позже в отдельном техническом материале.