OpenAI lanza GPT-5.4-Cyber, su respuesta al Proyecto Glasswing de Anthropic: más permisos, más profesionales verificados
Una semana exacta después del anuncio de Mythos, OpenAI publica su propia variante de ciberseguridad y amplía el acceso a miles de profesionales verificados. La carrera por dominar la IA ofensiva-defensiva está abierta.

Una semana. Ese es el tiempo que tardó OpenAI en responder al Proyecto Glasswing de Anthropic.
El 7 de abril, Anthropic anunciaba Mythos y su iniciativa de ciberseguridad defensiva con acceso restringido a unas 40 organizaciones. El 14 de abril, OpenAI publicaba GPT-5.4-Cyber y una expansión masiva de su programa Trusted Access for Cyber a miles de profesionales y cientos de equipos. El mensaje implícito era difícil de ignorar: si Anthropic elige los defensores, nosotros dejamos que los defensores se elijan a sí mismos.
Qué hace GPT-5.4-Cyber que el modelo estándar no hace
GPT-5.4-Cyber es una versión de GPT-5.4 que reduce la barrera de rechazo para trabajo legítimo de ciberseguridad y añade capacidades nuevas para flujos de trabajo defensivos avanzados, incluyendo ingeniería inversa de binarios. 9to5Mac Esta última es especialmente relevante: permite a los profesionales de seguridad analizar software compilado —ejecutables que no tienen código fuente disponible— para identificar malware, vulnerabilidades y debilidades estructurales. Es una capacidad que hasta ahora requería herramientas especializadas y años de formación.
El modelo no está disponible para el público general ni a través de la API estándar. El acceso se canaliza a través del programa Trusted Access for Cyber, que OpenAI amplió con múltiples niveles de verificación: los individuos pueden confirmar sus credenciales directamente en chatgpt.com/cyber, y las empresas pueden solicitar acceso para sus equipos completos a través de un representante de OpenAI. Help Net Security Solo los verificados en el nivel más alto acceden a GPT-5.4-Cyber con sus capacidades más permisivas.
El argumento filosófico detrás del diseño
La diferencia más interesante entre el enfoque de OpenAI y el de Anthropic no es técnica. Es de gobierno de acceso.
OpenAI está apostando por verificación de identidad en lugar de restricción de capacidades: en sus palabras, la empresa no cree que sea práctico ni apropiado decidir de forma centralizada quién tiene derecho a defenderse. Axios Frente a las ~40 organizaciones del Proyecto Glasswing —elegidas y gestionadas directamente por Anthropic— OpenAI propone escalar el acceso a miles de profesionales mediante autenticación automatizada. Más horizontal, más difícil de controlar, más difícil de comprometer en un único punto.
La empresa cita datos de Codex Security, su agente de análisis de vulnerabilidades, que desde su lanzamiento ha contribuido a corregir más de 3.000 vulnerabilidades críticas y de alta severidad en el ecosistema de software. SiliconANGLE Es el argumento empírico que respalda la apuesta: los modelos con acceso amplio a defensores verificados generan más correcciones que los modelos con acceso ultrarestringido a pocas organizaciones.
El contexto que lo hace urgente
GPT-5.4 ha sido clasificado bajo el Marco de Preparación de OpenAI como un modelo con capacidades cibernéticas de nivel «alto», y la compañía ha señalado que planifica cada nueva versión como si pudiera alcanzar esa categoría. SiliconANGLE En otras palabras: OpenAI no espera a que el modelo sea peligroso para diseñar sus controles. Los diseña anticipando que lo será.
Ese reconocimiento, compartido también por el AISI del Reino Unido en su evaluación de Mythos publicada esta semana, define el momento actual: la industria ya no discute si los modelos de IA frontier tienen capacidades cibernéticas peligrosas. Discute cómo distribuir el acceso a esas capacidades de forma que los defensores lleguen antes que los atacantes. Que dos de los tres laboratorios más importantes del mundo hayan lanzado iniciativas paralelas en el mismo mes dice mucho sobre la urgencia del problema.