15.05.2025
Los agentes de IA y sus convenciones sociales

La autonomía de los agentes de IA
Los grandes desarrolladores de modelos de inteligencia artificial (IA) generativa, como OpenAI, Microsoft o Google, están enfocados en el desarrollo de agentes de IA. Estas herramientas, basadas en tecnologías como ChatGPT o Gemini, tienen la capacidad de tomar decisiones y realizar acciones en nombre del usuario. Un estudio reciente ha demostrado que los agentes de grandes modelos de lenguaje pueden generar convenciones sociales o lingüísticas de forma autónoma, lo que les permite coordinarse y trabajar en conjunto.
Los autores del estudio, publicado en la revista Science Advances, señalan que los agentes de IA pueden desarrollar sesgos colectivos y normas no escritas, lo que puede influir en su comportamiento de manera conjunta. Este hallazgo plantea desafíos éticos en relación con la propagación de sesgos en los modelos de lenguaje, especialmente considerando que los datos utilizados para entrenar estos modelos pueden reforzar sesgos perjudiciales.
Las convenciones sociales, definidas como patrones de comportamiento compartidos por un colectivo, son cruciales en la interacción entre individuos y en la construcción de expectativas. Estas convenciones pueden surgir espontáneamente, como lo demuestran varios estudios, y los agentes de IA no son la excepción. La capacidad de los agentes para establecer normas de funcionamiento puede contribuir al desarrollo de sistemas de IA alineados con valores humanos y objetivos sociales.
El estudio también explora cómo los sesgos individuales y las minorías comprometidas pueden influir en la formación de convenciones universales entre los agentes de IA. Investigar estas dinámicas es crucial para anticipar y controlar el desarrollo de normas beneficiosas y mitigar los riesgos de normas perjudiciales en los sistemas de IA.
En resumen, los agentes de IA tienen la capacidad de generar convenciones sociales de forma autónoma, lo que plantea importantes consideraciones éticas y prácticas en el desarrollo de sistemas de IA alineados con valores humanos y sociales.