Un estudio revela que los agentes de inteligencia artificial pueden generar convenciones sociales sin que nadie se las enseñe.

La inteligencia artificial ya no solo responde preguntas, escribe poemas o diseña códigos. Ahora, también inventa sus propias reglas sociales. Así lo sugiere un nuevo estudio publicado en Science Advances, donde se demuestra que los agentes de IA, basados en modelos como Claude o Llama, pueden desarrollar convenciones lingüísticas espontáneas al interactuar entre sí, sin necesidad de ser programados para ello.
Sí, leíste bien: sin instrucciones, sin consenso previo, y sin intervención humana directa.
¿Qué son los agentes de IA?
Son herramientas inteligentes, similares a ChatGPT o Gemini, con capacidad para tomar decisiones y actuar: desde comprar un boleto de avión hasta coordinar tareas con otros agentes. Pero en este experimento, lo que sorprendió fue que, al simular un simple “juego de los nombres”, los modelos lograron crear un lenguaje común y generar sesgos colectivos sin que nadie lo pidiera.Los autores del estudio aclaran que no se trata de que las IA se estén organizando entre ellas para dominar el mundo (todavía), pero sí destacan algo inquietante: pueden formar reglas compartidas, y esas reglas pueden ser influenciadas por pequeñas minorías activas, lo que recuerda a cómo surgen modas, creencias o polarización en redes sociales.
El experimento: un “naming game” entre 200 IAs
En el juego, 24 agentes IA debían ponerse de acuerdo para nombrar un objeto. Si coincidían, sumaban puntos; si no, perdían. No se les decía cómo decidir, solo se les daba una memoria de cinco rondas anteriores.
Resultado: emergieron convenciones dominantes. En un principio, varios nombres compitieron, pero poco a poco uno fue ganando terreno, hasta convertirse en “norma”. Incluso sin sesgos individuales aparentes, surgió un sesgo colectivo.
¿Lo más sorprendente? Lo hicieron sin que se les ordenara colaborar.
¿Qué implica esto?
Para el profesor Andrea Baronchelli, coautor del estudio, este hallazgo es clave para diseñar sistemas de IA más humanos, éticos y colaborativos. Si entendemos cómo las máquinas generan normas, tal vez podamos dirigir ese proceso hacia fines sociales positivos.
Pero también hay alertas. Si los modelos se entrenan con datos no filtrados de internet, pueden absorber y reproducir prejuicios. Y si una minoría puede imponer sus reglas a la mayoría, el riesgo de replicar dinámicas de exclusión, discriminación o manipulación es real.
Como advierte el catedrático Carlos Gómez Rodríguez, aún estamos lejos de hablar de “convenciones sociales” como las humanas: no hay roles, poder, conflicto ni diversidad real en el experimento. Todos los agentes eran clones. Pero lo que se ve es un germen de comportamiento colectivo.
¿Cultura artificial?
En un mundo hiperconectado, donde algoritmos ya definen qué leemos, qué compramos y qué pensamos, este estudio no es solo ciencia. Es una pregunta abierta:
¿Queremos que las IA aprendan nuestras normas o que creen las suyas propias?
Queremos leerte, ¿Qué opinas?