-
El almacenamiento y la transferencia de datos es un punto clave de las propuestas.
-
Los rollups son un desarrollo clave para poder escalar Ethereum aún más.
Uno de los mayores retos que afronta Ethereum en la actualidad es conseguir una mayor escalabilidad. Es decir, seguir siendo funcional a medida que más gente usa la red y se desarrollan más aplicaciones. Con esto en mente, los mejores desarrolladores trabajan en propuestas que pretenden mejorar distintos aspectos en el funcionamiento de la red.
De acuerdo con lo expresado en una publicación en Twitter por el experto y emprendedor Paolo Rebuffo, hay tres propuestas de mejora de Ethereum (EIP) que podrían potenciar la escalabilidad de la red en los próximos 12 meses.
Si se cumplen los plazos que pronostica este experto, las EIP se activarían luego de la fusión de la blockchain actual con Ethereum 2.0. En esa instancia, Ethereum pasará a funcionar con prueba de participación (Proof of Stake o PoS) para validar nuevos bloques.
Rebuffo hizó hincapié en tres propuestas, las EIP 4444, 4488 y 4844. Las últimas dos fueron presentadas nada menos que por Vitalik Buterin, cocreador de Ethereum, en conjunto con otros desarrolladores. Las tres están en etapa de presentación y debate todavía y no hay plazos determinados para su evaluación e implementación.
Además, Rebuffo, también inversor que actualmente trabaja en el desarrollo del cliente de Ethereum Erigon, añadió otras ideas complementarias que ayudarían en la escalabilidad de la red líder en desarrollos de aplicaciones descentralizadas (dApps) y protocolos de finanzas descentralizadas (DeFi).
Una forma de optimizar recursos
La primera de las enumeradas es la EIP-4444, que propone que los clientes recorten datos almacenados que tengan más de un año de antigüedad. Esto facilita las cosas para los corredores de nodos, quienes necesitarán menos espacio en disco para poder ejecutarlos.
Según el texto de la propuesta, que data de noviembre de 2021, los datos históricos ocupan actualmente 400 GB de espacio, y en aumento. Por lo tanto, para validar bloques en la blockchain, los usuarios deben contar con discos de 1 TB. Sin embargo, detalla la EIP, los datos históricos no son necesarios para validar nuevos bloques, sino que solo se recuperan cuando son pedidos explícitamente.
Esta reducción, en conjunto con la eliminación de códigos que procesan bloques históricos, reducen los requisitos para los clientes y usuarios.
Las ideas de Vitalik Buterin para la escalabilidad de Ethereum
Por otro lado, está la EIP-4488, propuesta por Vitalik Buterin y Ansgar Dietrichs en noviembre de 2021. Su finalidad principal es reducir los costos de comisiones para transacciones en las segundas capas de Ethereum.
¿Cómo se lograría? De acuerdo con la propuesta, la clave está en reducir las comisiones para los datos de llamada o calldata de las transacciones. Estos datos son espacios de solo lectura en los códigos de las transacciones que almacenan los parámetros de esta.
Además de reducir las comisiones por la transferencia de este tipo de datos, la EIP-4488 también sugiere limitar la cantidad de este tipo de información en cada bloque.
Esta alternativa sería beneficiosa para los rollups de Ethereum, dicen Buterin y Dietrichs. Los rollups son soluciones de escalabilidad de segunda capa que «enrollan» varias transacciones para luego plasmarlas a todas juntas en la capa principal de la red. En líneas generales, los rollups permiten reducir varias veces las tarifas con respecto a las de la red principal.
Ahora bien, incluso estas tarifas reducidas son caras para muchos usuarios, dice la propuesta. Reducir los gastos asociados a los datos de llamada puede ser una solución a corto plazo para este problema, según estos desarrolladores. Mientras tanto, se pueden ir desarrollando soluciones más permanentes y complejas, como la data sharding, que propone dividir la red en 64 fragmentos y dejar un espacio determinado en cada bloque para los rollups.
«Los rollups son, a corto y mediano plazo, y posiblemente a largo plazo, la única solución de escalabilidad sin confianza para Ethereum», argumenta la EIP. Con todo esto, Vitalik Buterin ratifica su postura de que la escalabilidad llegará a partir del desarrollo de estas segundas capas de la red, como se ha reportado en CriptoNoticias.
En tercer lugar, Rebuffo citó la EIP-4844. Esta es otra propuesta de Vitalik Buterin, junto con los desarrolladores Dankrad Feist, Diederik Loerakker, George Kadianakis, Matt Garnett, en febrero de 2022.
Al igual que la EIP-4488, esta propuesta también tiene que ver con los rollups en Ethereum. Su principal finalidad es ser una solución provisional hasta que se desarrolle el data sharding, con el objetivo de optimizar el espacio dedicado a los rollups dentro de cada bloque.
Para ello, lo que pretende es crear un nuevo formato de transacciones, «transacciones con blob», que contengan un gran número de datos que no pueden ser leídos por la máquina virtual de Ethereum, pero que transmitan su compromiso.
Se trata del tipo de transacción que se usará en el futuro, cuando se termine de desarrollar el data sharding. Sin embargo, en este caso no se dejaría el espacio para el sharding, sino que se transmitiría la información a la capa principal de la Beacon Chain (la cadena de Ethereum 2.0).
Otros complementos para escalar Ethereum
Más allá de las EIP explicadas con anterioridad, Rebuffo también citó otras ideas que contribuirían a la escalabilidad de Ethereum. Por ejemplo, el uso de un árbol de Verkle en lugar de un árbol de Merkle reduciría el IOPS en almacenamiento.
Para desglosar un poco estos conceptos, hay que saber que el IOPS (Input/Output Operations Per Second u operaciones de entrada/salida por segundo) es una unidad que se usa para medir el rendimiento de dispositivos informáticos de almacenamiento. Cuantas menos operaciones se almacenen, mayor será la eficiencia del sistema.
Por otra parte, los modelos basados en «árboles» para la organización de datos en la blockchain se basan en una raíz, a partir de la cual se despliegan luego muchas ramas. Según una publicación de Vitalik Buterin en su blog, el árbol de Verkle es similar pero mucho más eficiente que el árbol de Merkle.
Finalmente, lo último que dice Rebuffo es que la optimización de los modelos de datos de los clientes también ayudará. Esto, detalla, ayudaría a reducir el uso en los discos de almacenamiento e incrementaría así su eficiencia.