-
Google detectรณ seรฑales tรญpicas de IA en el cรณdigo, incluido un CVSS โalucinadoโ.
-
El software afectado no fue revelado por razones de seguridad, segรบn la compaรฑรญa.
Google asegurรณ haber detectado el primer caso documentado de una vulnerabilidad de dรญa cero (o exploit zero-day) desarrollada con ayuda de inteligencia artificial, un hallazgo que marca un punto de inflexiรณn en la evoluciรณn de las ciberamenazas. El caso fue revelado el 11 de mayo de 2026 por el Google Threat Intelligence Group (GTIG), que afirmรณ haber interceptado una campaรฑa masiva antes de que pudiera ejecutarse.
De acuerdo con Google, el exploit permitรญa evadir la autenticaciรณn de dos factores (2FA) en una popular herramienta open source de administraciรณn de sistemas vรญa web. El ataque requerรญa credenciales vรกlidas previamente, pero lograba saltar la verificaciรณn adicional de seguridad mediante un fallo lรณgico en el sistema de autenticaciรณn.
Una vulnerabilidad de dรญa cero (zero-day) es un vector de ataque desconocido para el proveedor del software y, por tanto, sin parche disponible al momento de ser descubierta o utilizada por atacantes. Este tipo de fallos suele ser especialmente peligroso porque puede comprometer sistemas antes de que existan defensas oficiales.
La empresa explicรณ que la vulnerabilidad no provenรญa de errores tradicionales, como corrupciรณn de memoria o problemas de sanitizaciรณn de entradas, sino de una suposiciรณn de confianza integrada directamente en la lรณgica del software. Segรบn GTIG, los modelos de lenguaje actuales comienzan a mostrar capacidades particularmente รบtiles para detectar este tipo de inconsistencias semรกnticas, difรญciles de encontrar mediante fuzzers o herramientas clรกsicas de anรกlisis estรกtico.
Asimismo, Google afirmรณ tener โmucha confianzaโ en que un modelo de IA participรณ tanto en el descubrimiento de la vulnerabilidad como en el desarrollo del exploit. Entre los indicios encontrados en el cรณdigo se detectaron comentarios excesivamente explicativos, una estructura Python descrita como โtextbookโ y hasta un puntaje CVSS inventado, una caracterรญstica que la empresa asocia con las llamadas โalucinacionesโ de los modelos generativos.
Aunque la compaรฑรญa aclarรณ que no cree que Gemini haya sido utilizado en este caso, sostuvo que los atacantes probablemente recurrieron a un modelo de lenguaje disponible pรบblicamente. GTIG no revelรณ el nombre del software afectado ni del grupo criminal involucrado, argumentando razones de seguridad.
Grupos criminales perfeccionan la IA para hackear
El informe tambiรฉn seรฑala una tendencia general: distintos actores, incluidos grupos criminales y otros vinculados a China y Corea del Norte, estรกn incrementando el uso de inteligencia artificial en tareas como la investigaciรณn de vulnerabilidades, la automatizaciรณn de procesos ofensivos y el desarrollo de herramientas maliciosas. Segรบn Google, esta adopciรณn progresiva apunta a sistemas capaces de analizar entornos, generar instrucciones y adaptar su comportamiento durante la ejecuciรณn de ataques, con distintos niveles de autonomรญa.
En ese contexto, el reporte incluye el caso de PROMPTSPY, un malware tipo backdoor para Android analizado por la compaรฑรญa como ejemplo de esta evoluciรณn. Este software malicioso incorpora la API de IA para interpretar la interfaz del dispositivo comprometido y ejecutar acciones automatizadas sobre el sistema infectado. Segรบn Google, esta integraciรณn permite ampliar el grado de autonomรญa operativa del malware una vez desplegado. La compaรฑรญa indicรณ ademรกs que la infraestructura asociada a esta campaรฑa fue desactivada y que no se detectaron aplicaciones vinculadas en Google Play.

El caso tambiรฉn abriรณ debate dentro de la industria sobre el nivel real de autonomรญa alcanzado por estas herramientas. Aunque Google sostiene que un modelo de IA participรณ en el hallazgo y desarrollo del exploit, la compaรฑรญa evitรณ afirmar que el proceso haya sido completamente automatizado.
John Hultquist, analista jefe de GTIG, afirmรณ que este caso probablemente representa โla punta del icebergโ de cรณmo actores criminales y grupos respaldados por Estados estรกn impulsando el uso ofensivo de inteligencia artificial.
El reporte refleja un cambio en el rol de la inteligencia artificial dentro de la ciberseguridad ofensiva. Hasta ahora, gran parte de los usos maliciosos de IA se concentraban en phishing, automatizaciรณn y generaciรณn de contenido engaรฑoso. Sin embargo, Google sostiene que los modelos de lenguaje ya comienzan a incorporarse en etapas mรกs complejas del ciclo de ataque, como la identificaciรณn de fallos lรณgicos y el desarrollo acelerado de exploits, un escenario que podrรญa redefinir la velocidad y escala de futuras campaรฑas de ciberataques.








