-
Los agentes autónomos introducen nuevos riesgos financieros, según la compañía.
-
El reporte observa que las librerías actuales no fueron diseñadas para IA sin supervisión humana.
El avance de la inteligencia artificial (IA) está transformando el desarrollo de software. Un informe de la compañía argentina Lambda Class señala que este cambio genera oportunidades y riesgos en el ecosistema de las criptomonedas, especialmente cuando sistemas automatizados interactúan directamente con dinero real sin intervención humana constante.
En el documento publicado el 23 de enero la empresa orientada al desarrollo de herramientas para Ethereum plantea que el uso de agentes de IA para operar con criptomonedas introduce nuevos vectores de fallas de seguridad. Son elementos que no estaban contemplados en el diseño original de la infraestructura.
Conforme al reporte, la introducción de agentes de IA (programas capaces de tomar decisiones y ejecutar acciones de forma autónoma) altera una premisa importante que forma parte del diseño de Ethereum. Esto, porque su infraestructura financiera de propósito general se basa en que las operaciones son iniciadas y comprendidas por personas humanas.
Por tanto, cuando los sistemas de IA interactúan directamente con la red y firman transacciones sin revisión humana previa, los errores ya no quedan en el plano conceptual, sino que se traducen en pérdidas económicas inmediatas e irreversibles.
El análisis del equipo de Lambda Class toma especial relevancia dado que el 29 de enero se implementó en la red principal de Ethereum el estándar ERC-8004. Tal como lo informó CriptoNoticias ese estándar, justamente, proveería a Ethereum de un sistema en el que agentes de IA puedan conectarse, verificarse y reputando entre sí automáticamente a través de contratos inteligentes.
¿Qué pasa si la IA reemplaza al operador humano?
De acuerdo con el informe de Lambda Class, las librerías (conjuntos de herramientas de software que los desarrolladores usan para interactuar con Ethereum y enviar transacciones) fueron pensadas para personas, no para sistemas autónomos.
Herramientas como ethers.js o web3.js asumen que alguien entiende qué está firmando antes de autorizar una transacción. Ese modelo, según lo expuesto, podría fallar cuando el operador es una IA:
- Un agente puede alucinar una dirección, es decir, generar una dirección válida pero incorrecta.
- Puede confundir unidades. Por ejemplo, interpretar “enviar 100, como 100 ethers en lugar de 100 dólares”
- También puede ser manipulado mediante inyección de instrucciones, una técnica que introduce órdenes maliciosas dentro de los datos que procesa.
Cada uno de estos errores es poco probable de forma aislada. Sin embargo, el informe advierte que, cuando se ejecutan millones de operaciones automáticas, esos fallos se vuelven inevitables.
En Ethereum no existe un banco que revierta operaciones. Una vez confirmada una transacción, los fondos se pierden de forma permanente (salvo en el famoso hackeo de The DAO).
Lambda Class subraya que este no es un problema de «mejorar la IA». El riesgo surge de permitir que sistemas imperfectos operen directamente sobre infraestructura financiera irreversible. Cuando algo falla, el sistema devuelve mensajes técnicos que una IA no puede interpretar de forma segura.
El reporte compara este escenario con dejar que un robot conduzca un camión sin frenos automáticos: el problema no es la intención del agente, sino la ausencia de barreras que lo detengan cuando algo sale mal.
Las restricciones como capa de defensa
Para abordar este problema el equipo de Lambda Class, cree que la forma de reducir riesgos no pasa por hacer a la IA “más inteligente”, sino por ponerle límites estructurales.
Para eso, desarrolló eth-agent, un kit de desarrollo que introduce restricciones obligatorias en la ejecución de transacciones en cada billetera. Por ejemplo, topes de gasto por transacción, por hora y por día. De esta forma, si un agente intenta superar esos límites, la operación falla de forma automática, sin posibilidad de evasión.
El sistema también devuelve errores claros y estructurados. En lugar de mensajes técnicos difíciles de interpretar, informa qué regla se violó y cuándo es seguro reintentar.
Además, para operaciones sensibles (como montos altos o destinatarios nuevos) se requiere aprobación humana antes de ejecutar el envío.
Hay formas de evitar los riesgos de la IA
Como parte de las previsiones, el estudio aconseja que los agentes autónomos operen principalmente con stablecoins, a fin de evitar errores provocados por la volatilidad de precios.
También recomienda incorporar cuentas inteligentes bajo el estándar ERC-4337, que permiten delegar permisos de forma limitada y controlada.
La idea central de estas propuestas es similar a la de un sistema operativo. Las aplicaciones pueden fallar, pero el núcleo impone reglas que evitan daños mayores. En finanzas descentralizadas, ese “núcleo” debe proteger incluso cuando la IA se equivoca.
El informe concluye que los agentes de IA seguirán mejorando, pero nunca serán perfectos. En un sistema financiero sin reversión de errores, confiar en su corrección es insuficiente.








