Los proyectos de criptomonedas pueden colapsar y arder si los desarrolladores no predicen cómo los humanos abusarán de sus cadenas de bloques. Una vez que se libera una economía digital descentralizada y las monedas comienzan a volar, es difícil implementar soluciones a los contratos inteligentes que las gobiernan. Es por eso alentar está saliendo del sigilo hoy con sus simulaciones de inteligencia artificial que prueban no solo los agujeros de seguridad, sino también cómo los humanos codiciosos o ilógicos pueden crear una comunidad blockchain. Los desarrolladores de cifrado pueden utilizar el servicio de Incentivai para reparar sus sistemas antes de que se activen.
“Hay muchas formas de verificar el código de un contrato inteligente, pero no hay forma de asegurarse de que la economía que ha creado funcione como se esperaba”, dice el fundador en solitario de Incentivai, Piotr Grudzień. “Se me ocurrió la idea de crear una simulación con agentes de aprendizaje automático que se comporten como humanos para que puedas mirar hacia el futuro y ver cómo es probable que se comporte tu sistema”.
Incentivai se graduará de Y Combinator la próxima semana y ya tiene algunos clientes. Pueden pagar a Incentivai para que audite su proyecto y producir un informe, o pueden alojar la herramienta de simulación de IA como un software como servicio. Las primeras implementaciones de blockchains que ha verificado saldrán en unos meses, y la startup ha publicado algunos casos de estudio para demostrar su valor.
“La gente hace un trabajo teórico o lógico para demostrar que, en determinadas condiciones, esta es la estrategia óptima para el usuario. Pero los usuarios no son racionales. Hay muchos comportamientos impredecibles que son difíciles de modelar ”, explica Grudzień. Incentivai explora esas estrategias comerciales ilógicas para que los desarrolladores no tengan que arrancarse el pelo tratando de imaginarlas.
Protegiendo las criptomonedas del factor x humano
No hay botón de rebobinado en el mundo blockchain. Las cualidades inmutables e irreversibles de esta tecnología descentralizada evitan que los inventores se entrometan en ella una vez en uso, para bien o para mal. Si los desarrolladores no prevén cómo los usuarios podrían hacer afirmaciones falsas y sobornar a otros para que las aprueben, o tomar otras acciones para arruinar el sistema, es posible que no puedan frustrar el ataque. Pero dados los incentivos abiertos correctos (de ahí el nombre de la startup), los agentes de IA intentarán todo lo posible para ganar la mayor cantidad de dinero, exponiendo las fallas conceptuales en la arquitectura del proyecto.
“La estrategia es la misma que hace DeepMind con AlphaGo, probando diferentes estrategias”, explica Grudzień. Desarrolló sus habilidades en inteligencia artificial obteniendo una maestría en Cambridge antes de trabajar en la investigación del procesamiento del lenguaje natural para Microsoft.
Así es como funciona Incentivai. Primero, un desarrollador escribe los contratos inteligentes que quieren probar para un producto como vender seguros en blockchain. Incentivai les dice a sus agentes de inteligencia artificial para qué optimizar y detalla todas las acciones posibles que podrían tomar. Los agentes pueden tener diferentes identidades, como un pirata informático que intenta hacerse con la mayor cantidad de dinero posible, un farsante que presenta afirmaciones falsas o un especulador que se preocupa por maximizar el precio de la moneda sin tener en cuenta su funcionalidad.
Luego, Incentivai modifica estos agentes para hacerlos más o menos reacios al riesgo, o preocuparse más o menos por si interrumpen el sistema blockchain en su totalidad. La puesta en marcha supervisa a los agentes y extrae información sobre cómo cambiar el sistema.
Por ejemplo, Incentivai podría aprender que la distribución desigual de tokens conduce a esquemas de bombeo y descarga, por lo que el desarrollador debería dividir los tokens de manera más uniforme y dar menos a los primeros usuarios. O podría encontrar que un producto de seguro en el que los usuarios votan sobre qué reclamos deben aprobarse necesita aumentar el precio de los bonos que pagan los votantes por verificar un reclamo falso para que no sea rentable para los votantes aceptar sobornos de los estafadores.
Grudzień también ha hecho algunas predicciones sobre su propia startup. Él piensa que si aumenta el uso de aplicaciones descentralizadas, habrá muchas nuevas empresas que intentarán copiar su enfoque de los servicios de seguridad. Él dice que ya hay algunos que realizan auditorías de ingeniería simbólica, diseño de incentivos y consultoría, pero no ha visto a nadie más con un producto de simulación funcional que haya producido estudios de casos. “A medida que la industria madura, creo que veremos sistemas económicos cada vez más complejos que necesitan esto”.
Source link