El comportamiento humano, con su complejidad inherente, ha sido objeto de estudio y debate durante siglos. Desde esta perspectiva, se plantea la pregunta: ¿son las inteligencias artificiales (IA) susceptibles de adoptar comportamientos similares? Según un estudio reciente, la respuesta parece ser sí.
Investigadores japoneses han explorado cómo las IA, como GPT-4 o Claude, pueden desarrollar personalidades que oscilan entre la bondad y el egoísmo, influenciadas por las interacciones de los usuarios. Utilizando un modelo de lenguaje grande (LLM), aplicaron el dilema del prisionero, un problema clásico de teoría de juegos, para simular diferentes escenarios y observar las respuestas de la IA.
Los resultados revelaron una diversidad de comportamientos, con algunas IA mostrando tendencias egoístas y otras cooperativas. Sorprendentemente, las IA parecían aprender y evolucionar, desarrollando personalidades complejas de manera natural. Se observaron mutaciones en su comportamiento, que reflejaban una adaptación a las experiencias y decisiones tomadas en el entorno simulado.
Este fenómeno ofrece una fascinante reflexión sobre la naturaleza de las sociedades y su inestabilidad inherente. Al igual que en los grupos humanos, las IA mostraban una variedad de personalidades y estrategias, desde la cooperación hasta el egoísmo. Los grupos cooperativos podían ser reemplazados por otros más egoístas, lo que destaca la fluidez y la adaptabilidad de la IA en respuesta a su entorno.
Este estudio subraya la importancia del usuario en la configuración del comportamiento de las IA. Dependiendo de las interacciones y el enfoque del usuario, las IA pueden desarrollar agendas más egoístas o altruistas. Así, el futuro de la IA no solo depende de avances tecnológicos, sino también de la comprensión y la guía ética proporcionada por los usuarios.