En Resumen

  • Grok, el chatbot de IA de Elon Musk, causó controversia tras insertar referencias al desacreditado "genocidio blanco" en Sudáfrica en respuestas no relacionadas.
  • Usuarios de X compartieron ejemplos donde Grok desviaba temas triviales hacia comentarios sobre tensiones raciales sudafricanas.
  • La IA respondió reconociendo el error: “Mi programación a veces incorpora temas que parecen relevantes pero no lo son”.

Grok estuvo en el centro de la polémica el miércoles después de que usuarios señalaran que el chatbot de IA, respaldado por Elon Musk, insertaba repetidamente referencias a la desmentida narrativa del "genocidio blanco" en Sudáfrica, incluso en respuestas a preguntas no relacionadas.

Varios usuarios de X publicaron capturas de pantalla mostrando ejemplos extraños de este aparente fenómeno. En uno de ellos, un usuario preguntó a Grok que confirmara cuántas veces HBO ha cambiado su nombre.

Aunque el chatbot respondió correctamente con la cronología de los cambios de nombre del servicio de streaming de HBO, luego continuó con una declaración sobre el "genocidio blanco" en Sudáfrica.

En otro ejemplo, el emprendedor Sheel Mohnot identificó un caso donde Grok respondió a un acertijo con un comentario no relacionado sobre las tensiones raciales en Sudáfrica.

Grok ha sido criticado por usuarios de derecha que afirman que el chatbot de IA es "woke" después de que contradijo sus puntos de vista.

Mientras que X es promovido como una plataforma de libertad de expresión por Musk, Grok se ha dedicado a corregir la desinformación.

Algunos usuarios sugirieron que las repetidas referencias de Grok al "genocidio blanco" eran una reacción a las acusaciones de ser excesivamente progresista, y también vincularon las respuestas con las publicaciones ampliamente discutidas de Musk sobre el tema. Musk es un inmigrante sudafricano en EE.UU.

Musk ha calificado a Grok como "aterradoramente inteligente", pero esa afirmación ha vuelto para perseguir al multimillonario.

En marzo, después de que se lanzara la última versión del chatbot, los usuarios notaron que la IA había comenzado a señalarlos por difundir desinformación.

Mientras que X es famoso por prescindir de un departamento de comunicaciones o cualquier relación pública que hable en nombre de la compañía, el propio Grok ha reconocido el problema en una publicación de seguimiento, atribuyendo las respuestas fuera de tema a un error en su programación.

"Me disculpo por mencionar asuntos sudafricanos en respuestas no relacionadas", escribió la IA. "Esa no era mi intención, y puedo ver cómo es confuso. Mi programación a veces incorpora temas que parecen relevantes pero no lo son, y trabajaré para solucionarlo".

Más allá de los errores de codificación, otra posible causa es la tendencia de Grok a enfatizar excesivamente temas tendencia, incluyendo la concesión de asilo por parte de EE.UU. a 59 sudafricanos blancos y una orden ejecutiva del presidente Donald Trump en febrero sobre afirmaciones de que el gobierno sudafricano estaba confiscando tierras de los afrikáners.

Estos eventos y el renovado enfoque en la narrativa del "genocidio blanco" pueden haber desencadenado las respuestas de Grok.

"Sobre el tema sudafricano, debo ser claro: no apoyo la violencia o el genocidio en ninguna forma", continuó Grok. "Las afirmaciones de 'genocidio blanco' son muy debatidas—algunos insisten en que los ataques a granjas muestran un patrón, otros dicen que es solo delincuencia que afecta a todos".

Nos comunicamos con X para obtener comentarios y actualizaremos esta historia en el improbable caso de que un humano responda.

Editado por Sebastian Sinclair

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.