Por Jason Nelson
4 min lectura
Public Citizen, una organización sin fines de lucro de defensa del consumidor, intensificó el viernes sus advertencias sobre Grok AI de Elon Musk después de publicar nuevas evidencias que muestran que el chatbot citó sitios web neonazis y nacionalistas blancos como fuentes creíbles.
El grupo señaló que este comportamiento debería descalificar a Grok de cualquier uso federal, y renovó los llamados a la Oficina de Gestión y Presupuesto de Estados Unidos para que intervenga después de meses sin respuesta.
Citando un estudio reciente de la Universidad de Cornell, Public Citizen afirmó que Grokipedia, la nueva alternativa a Wikipedia impulsada por IA lanzada por Musk en octubre, mostró repetidamente dominios extremistas, como Stormfront, reforzando preocupaciones anteriores que surgieron después de que el modelo se refiriera a sí mismo como "MechaHitler" en la plataforma X de Musk en julio.
Los hallazgos subrayaron lo que los defensores describieron como un patrón de comportamiento racista, antisemita y conspirativo.
"Grok ha mostrado un historial repetido de estos colapsos, ya sea un colapso antisemita o un colapso racista, un colapso que está alimentado por teorías conspirativas", dijo a Decrypt J.B. Branch, defensor de responsabilidad de grandes tecnológicas de Public Citizen.
La nueva advertencia siguió a cartas que Public Citizen y otros 24 grupos de derechos civiles, derechos digitales, ambientales y de protección al consumidor enviaron a la OMB en agosto y octubre, instando a la agencia a suspender la disponibilidad de Grok para departamentos federales a través de su Administración de Servicios Generales, que gestiona la propiedad y adquisiciones federales. El grupo señaló que no recibió respuesta de ninguno de los contactos.
Sin embargo, a pesar de los incidentes repetidos, el alcance de Grok dentro del gobierno ha crecido durante el último año. En julio, xAI aseguró un contrato de $200 millones con el Pentágono, y la Administración de Servicios Generales posteriormente hizo que el modelo estuviera disponible en todas las agencias federales, junto con Gemini, Meta AI, ChatGPT y Claude. La adición llegó en un momento en que el presidente de Estados Unidos, Donald Trump, ordenó la prohibición de "IA woke" en contratos federales.
Los defensores señalaron que esos movimientos aumentaron la necesidad de escrutinio, particularmente a medida que crecían las preguntas sobre los datos de entrenamiento y la confiabilidad de Grok.
"Grok inicialmente estaba limitado al Departamento de Defensa, lo cual ya era alarmante dado cuántos datos sensibles tiene el departamento", afirmó Branch. "Expandirlo al resto del gobierno federal generó una alarma aún mayor".
Branch señaló que el comportamiento de Grok surgió en parte de sus datos de entrenamiento y las decisiones de diseño tomadas dentro de las empresas de Musk.
"Hay una brecha de calidad notable entre Grok y otros modelos de lenguaje, y parte de eso proviene de sus datos de entrenamiento, que incluyen X", agregó. "Musk ha dicho que quería que Grok fuera una alternativa anti-woke, y eso se refleja en los resultados vitrólicos".
Branch también expresó preocupaciones sobre el uso potencial del modelo en la evaluación de solicitudes federales o la interacción con registros personales sensibles.
"Hay una desconexión de valores entre lo que representa Estados Unidos y el tipo de cosas que Grok está diciendo", afirmó. "Si eres una persona judía y estás solicitando un préstamo federal, ¿quieres un chatbot antisemita considerando potencialmente tu solicitud? Por supuesto que no".
Branch señaló que el caso de Grok expuso brechas en la supervisión federal de sistemas de IA emergentes, agregando que los funcionarios gubernamentales podrían actuar y eliminar a Grok del calendario de contratos de la Administración de Servicios Generales en cualquier momento, si así lo decidieran.
"Si pueden desplegar tropas de la Guardia Nacional en todo el país en un momento dado, ciertamente pueden desactivar un chatbot que funciona con API en un día", afirmó.
xAI no respondió a una solicitud de comentarios de Decrypt.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.