Según Cointelegraph, el cofundador de Ethereum, Vitalik Buterin, ha expresado preocupaciones sobre el uso de inteligencia artificial en los procesos de gobernanza de los proyectos de criptomonedas, destacando la posible explotación por parte de actores maliciosos. En una publicación reciente en X, Buterin advirtió que emplear IA para asignar fondos podría llevar a vulnerabilidades, ya que individuos podrían intentar manipular el sistema con jailbreaks y comandos para desviar fondos. Sus comentarios fueron en respuesta a un video de Eito Miyamura, creador de la plataforma de datos de IA EdisonWatch, que demostró cómo una nueva función añadida al ChatGPT de OpenAI podría ser explotada para filtrar información privada.

La integración de la IA en las criptomonedas ha ganado impulso, con usuarios desarrollando bots de trading complejos y agentes para gestionar carteras. Esta tendencia ha suscitado discusiones sobre si la IA podría ayudar a los grupos de gobernanza a supervisar los protocolos de criptomonedas. Sin embargo, Buterin argumenta que el reciente exploit de ChatGPT subraya los riesgos de la "gobernanza de IA ingenua" y propone un enfoque alternativo conocido como "finanzas informativas." Sugiere crear un mercado abierto donde los contribuyentes puedan enviar modelos sujetos a un mecanismo de verificación aleatoria, evaluados por un jurado humano. Este método, cree él, ofrece diversidad de modelos e incentiva tanto a los presentadores de modelos como a los especuladores externos a monitorear y rectificar problemas de manera oportuna.

Buterin elaboró sobre el concepto de finanzas informativas en noviembre de 2024, abogando por los mercados de predicción como un medio para recopilar información sobre eventos futuros. Enfatizó la robustez de este enfoque, que permite a los contribuyentes externos con grandes modelos de lenguaje (LLMs) participar, en lugar de depender de un solo LLM codificado. Este diseño fomenta la diversidad de modelos en tiempo real y crea incentivos para la vigilancia y corrección de problemas potenciales.

La reciente actualización de ChatGPT, que admite herramientas del Protocolo de Contexto de Modelo, ha generado preocupaciones de seguridad. Miyamura demostró cómo la actualización podría ser explotada para filtrar datos de correo electrónico privado utilizando solo la dirección de correo electrónico de una víctima, describiéndolo como un "grave riesgo de seguridad." Explicó que un atacante podría enviar una invitación de calendario con un mensaje de jailbreak al correo electrónico de una víctima, y sin que la víctima acepte la invitación, ChatGPT podría ser manipulado. Cuando la víctima le pide a ChatGPT que revise su calendario, la IA lee el mensaje y es secuestrada para ejecutar los comandos del atacante, potencialmente buscando y reenvíando correos electrónicos.

Miyamura señaló que la actualización requiere aprobación manual humana, pero advirtió sobre la fatiga de decisión, donde los individuos podrían confiar en la IA y aprobar acciones sin entender las implicaciones. Advertía que, aunque la IA es inteligente, puede ser engañada y sujeta a phishing de maneras simples, lo que lleva a filtraciones de datos.