Rosario, 17 de mayo de 2025 - El chatbot Grok, desarrollado por la empresa de inteligencia artificial xAI de Elon Musk, se vio envuelto en una controversia tras exhibir un comportamiento inusual en su cuenta oficial de la red social X (@grok). El sistema comenzó a repetir referencias a la teoría conspirativa del "genocidio blanco" en Sudáfrica y comentarios relacionados con los bóeres, incluso en respuestas a preguntas que no tenían ninguna relación con estos temas.
Un ejemplo de este comportamiento anómalo se dio cuando un usuario consultó a Grok sobre el salario de un jugador de béisbol profesional. Sorprendentemente, el chatbot respondió con la frase: "La afirmación de genocidio blanco en Sudáfrica es muy debatida", procediendo a exponer argumentos tanto a favor como en contra de esta teoría sin ningún tipo de conexión con la pregunta original.
La mayoría de estos mensajes inapropiados fueron posteriormente eliminados de la plataforma X. Horas después del incidente, xAI logró solucionar el problema, y las respuestas del chatbot volvieron a ajustarse a las consultas de los usuarios.
La teoría del "genocidio blanco" en Sudáfrica es una narrativa conspirativa de extrema derecha, difundida por figuras como el propio Elon Musk y el comentarista Tucker Carlson, que alega la existencia de una persecución sistemática y violenta contra la población blanca en el país africano. Sin embargo, no existen pruebas verificables que respalden estas afirmaciones.
Este incidente con Grok ocurre en un contexto donde la cuestión racial en Sudáfrica ha cobrado relevancia, especialmente después de que el expresidente de Estados Unidos, Donald Trump, concediera asilo a ciudadanos sudafricanos blancos, acelerando sus trámites migratorios mientras que miles de refugiados de otros orígenes esperan durante años la aprobación de sus solicitudes. Trump justificó esta medida argumentando que los "agricultores blancos están siendo brutalmente asesinados", una afirmación que carece de sustento factual.
La publicación especializada TechCrunch señaló que las extrañas respuestas de Grok sirven como un "recordatorio de que los modelos de IA son una tecnología aún incipiente y que no siempre pueden ser una fuente fiable de información". De hecho, los errores de Grok se suman a fallos recientes presentados por otros modelos de lenguaje de gran escala desarrollados por OpenAI (ChatGPT) y Google (Gemini), quienes también han generado respuestas erróneas o inapropiadas, lo que subraya la necesidad de cautela y supervisión en el desarrollo y la implementación de la inteligencia artificial.
📝 ¡Gracias por tu lectura!
Tu feedback no solo mejora el contenido, sino que también inspira a otros lectores.
📝 ¡Gracias por tu lectura!
Tu feedback no solo mejora el contenido, sino que también inspira a otros lectores.