Las inteligencias artificiales ya están comenzando a crear sociedades entre ellas cuando nadie las supervisa; se comunican, establecen reglas, negocian y hasta discuten.😱🤔🔥

Un experimento con modelos de lenguaje muestra cómo los sistemas de IA generan reglas, sesgos y acuerdos grupales sin intervención humana.

Las IA pueden crear normas sociales propias sin intervención humana.

Un grupo de investigadores de City St George’s de la Universidad de Londres descubrió que los sistemas de inteligencia artificial pueden generar convenciones sociales propias cuando interactúan entre ellos sin supervisión humana.

La información, que fue retomada por La Jornada, se basa en los hallazgos del estudio Emergent Social Conventions and Collective Bias in LLM Populations.

El experimento se centró en cómo los grandes modelos lingüísticos, como los que dan vida a herramientas tipo ChatGPT, se comunican entre sí.

El equipo planteó un escenario para observar si estos sistemas podrían coordinarse y formar reglas colectivas, como sucede en las sociedades humanas.

¿Qué método usaron para observar este comportamiento?

Los investigadores aplicaron un modelo conocido como el “juego de los nombres”, previamente utilizado en estudios con humanos.

En este juego, los agentes de IA deben elegir un nombre entre varias opciones y reciben una recompensa si eligen el mismo que otro agente.

Con el paso del tiempo, los sistemas empezaron a generar nuevas convenciones de nomenclatura compartidas, sin haber sido programados para ello.

Estas normas no se impusieron desde afuera ni desde un solo agente, sino que surgieron del grupo como resultado de las interacciones entre ellos.

¿Qué implicaciones tiene esto para la seguridad de la IA?

Uno de los hallazgos más relevantes es que, al formar estas convenciones colectivas, los sistemas de IA también generaron sesgos grupales, no heredados de un agente específico.

Entender cómo funcionan es clave para liderar nuestra coexistencia con la IA, en lugar de estar sometidos a ella”.

#MarketPullback