-
Un agente de IA interno de Meta sugirió una solución y el personal de la empresa la implementó.
-
Agentes de IA cometen errores que los humanos no por carecer de contexto acumulado, según expertos.
A mediados de esta semana, un agente de inteligencia artificial (IA) interno de la compañía Meta instruyó a un ingeniero de la empresa a ejecutar acciones que expusieron una gran cantidad de datos sensibles de usuarios y de la propia compañía a un grupo de empleados durante dos horas. El incidente activó una alerta interna de seguridad de alta prioridad dentro de la empresa.
Meta no emitió ningún comunicado oficial, aunque, según reportó The Guardian, un portavoz anónimo de la empresa confirmó el incidente.
Ese portavoz también afirmó que «ningún dato de usuario fue mal manejado» y subrayó que «un humano también podría dar consejos erróneos». No se dieron detalles sobre qué cantidad de datos ni qué tipo de datos se filtraron.
De acuerdo con lo expuesto por The Guardian, el incidente se desencadenó cuando un empleado de Meta publicó una consulta sobre un problema de ingeniería en un foro interno de la empresa. Seguidamente, un agente de IA respondió con una solución. El empleado la implementó sin cuestionar la instrucción, lo que provocó que una gran cantidad de datos sensibles quedara expuesta a ingenieros de la empresa durante dos horas.
El episodio ilustra un tipo de riesgo específico que los agentes de IA introducen en entornos corporativos. Jamieson O’Reilly, especialista en seguridad ofensiva con IA citado por The Guardian, explicó la diferencia estructural entre un agente y un empleado humano:
Un ingeniero humano que lleva dos años trabajando en un lugar carga con un sentido acumulado de qué importa, qué falla a las 2 de la mañana, cuál es el costo de una interrupción, qué sistemas tocan a los clientes. Ese contexto vive en él, en su memoria de largo plazo, incluso si no está en primer plano.
Jamieson O’Reilly, especialista en seguridad ofensiva.

Un agente de IA, en cambio, solo opera con lo que está explícitamente incluido en su ventana de contexto (una especie de memoria de trabajo activa), y esa información se desvanece si no está incorporada en sus datos de entrenamiento.
En otras palabras: un humano sabe implícitamente que no debe incendiar el sofá para calentar la habitación. Un agente de IA no tiene esa comprensión implícita a menos que alguien se la haya programado de forma explícita.
Tarek Nseir, cofundador de una consultora especializada en el uso empresarial de IA, fue más directo en su evaluación. Según sus declaraciones, Meta y otras grandes empresas están en «fases experimentales» de despliegue de agentes de IA sin realizar evaluaciones de riesgo adecuadas.
«Si pones a un pasante junior en esto, nunca le darías acceso a todos tus datos críticos de recursos humanos de nivel uno», señaló.
Antecedentes: los riesgos de la IA en sistemas con dinero real
El incidente de Meta se produce en un contexto más amplio de alertas sobre los riesgos de los agentes de IA operando sin supervisión humana suficiente.
En enero pasado, un informe de la empresa argentina Lambda Class advirtió que los agentes de IA introducen vectores de falla no contemplados en el diseño original de Ethereum: pueden generar direcciones incorrectas, confundir unidades de valor o ser manipulados mediante inyección de instrucciones. A diferencia de un error humano que queda en el plano conceptual, un error de un agente operando con fondos reales se traduce en pérdidas inmediatas e irreversibles.
Esa advertencia encontró un ejemplo concreto el pasado 15 de febrero, cuando el protocolo DeFi Moonwell perdió 1,7 millones de dólares por un error en un contrato inteligente que fijó el precio del token cbETH en 1,12 dólares cuando su valor real superaba los 2.200 dólares.
El registro público del código identificó como coautor al modelo Claude Opus 4.6 de Anthropic, lo que llevó a parte de la comunidad técnica a calificarlo como el primer hackeo documentado a código generado por IA. El error pasó todas las revisiones humanas sin ser detectado.
Por su parte, Vitalik Buterin, cofundador de Ethereum, quien considera que la IA puede acelerar el desarrollo tecnológico, también advierte que al programar con IA, «la seguridad total es imposible».
Lo que conecta el incidente de Meta con los casos de Moonwell y las advertencias de Lambda Class es una misma conclusión: los agentes de IA pueden ejecutar instrucciones con precisión técnica y cometer errores catastróficos al mismo tiempo, precisamente porque carecen del contexto implícito que los humanos acumulan con la experiencia.








