Justo días después de que OpenAI anunciara la formación de su nuevo Comité de Seguridad, las ex miembros de la junta Helen Toner y Tasha McCauley acusaron públicamente al CEO Sam Altman de priorizar las ganancias sobre el desarrollo responsable de la IA, además de ocultar desarrollos clave a la junta y fomentar un ambiente tóxico en la empresa.

Pero los actuales miembros de la junta de OpenAI, Bret Taylor y Larry Summers, respondieron enérgicamente hoy en defensa de Altman, contrarrestando las acusaciones y diciendo que Toner y McCauley están tratando de reabrir un caso cerrado. La discusión se desarrolló en un par de artículos de opinión publicados en The Economist.

Las ex miembros de la junta lanzaron el primer ataque, argumentando que la junta de OpenAI no pudo controlar a su director ejecutivo.

“En noviembre pasado, en un esfuerzo por salvar esta estructura de autorregulación, la junta directiva de OpenAI despidió a su CEO”, escribieron Toner y McCauley, quienes jugaron un papel en la destitución de Altman el año pasado, el 26 de mayo. “En el caso específico de OpenAI, dada la obligación de la junta de proporcionar supervisión independiente y proteger la misión de interés público de la empresa, respaldamos la acción de la junta”.

En su respuesta publicada en The Economist, Bret Taylor y Larry Summers, quienes se unieron a OpenAI después de que Toner y McCauley dejaran la empresa, defendieron a Altman, desestimando las acusaciones y afirmando su compromiso con la seguridad y la gobernanza.

"No aceptamos las afirmaciones hechas por la Sra. Toner y la Sra. McCauley sobre los eventos en OpenAI”, escribieron. “Lamentamos que la Sra. Toner siga revisitando problemas que fueron examinados minuciosamente por la revisión liderada por WilmerHale en lugar de avanzar”.

Mientras Toner y McCauley no citaron el nuevo Comité de Seguridad de la empresa, su carta reflejó preocupaciones de que OpenAI no podría controlarse de manera creíble ni a su CEO.

“Basados en nuestra experiencia, creemos que la autogestión no puede resistir de manera confiable la presión de los incentivos de lucro", escribieron. “También creemos que los acontecimientos desde su regreso a la empresa, incluyendo su reintegración a la junta directiva y la salida de talento senior enfocado en la seguridad, no auguran nada bueno para el experimento de autogestión de OpenAI.”

Los ex miembros de la junta directiva dijeron que los “patrones de comportamiento de larga data” de Altman dejaron a la junta de la empresa incapaz de supervisar adecuadamente “decisiones clave y protocolos internos de seguridad.” Sin embargo, los colegas actuales de Altman señalaron las conclusiones de una revisión independiente del conflicto encargada por la empresa.

"Los hallazgos de la revisión rechazaron la idea de que cualquier tipo de preocupación por la seguridad de la IA requería la sustitución del Sr. Altman", escribieron, “de hecho, WilmerHale encontró que la decisión previa de la junta no surgió de preocupaciones sobre la seguridad o la protección del producto, el ritmo de desarrollo, las finanzas de OpenAI, o sus declaraciones a inversores, clientes o socios comerciales.”

Quizás lo más preocupante, fue que Toner y McCauley también acusaron a Altman de fomentar una cultura empresarial tóxica.

“Varios líderes senior habían compartido en privado graves preocupaciones con la junta, diciendo que creían que el Sr. Altman cultivaba 'una cultura tóxica de mentiras' y se involucraba en 'comportamientos [que] pueden ser caracterizados como abuso psicológico'.”

Pero Taylor y Summers refutaron sus afirmaciones, diciendo que Altman es muy apreciado por sus empleados.

“En seis meses de contacto casi diario con la empresa, hemos encontrado que el Sr. Altman es muy franco en todos los temas relevantes y consistentemente cordial con su equipo directivo,” dijeron.

Taylor y Summers también dijeron que Altman estaba comprometido a trabajar con el gobierno para mitigar los riesgos del desarrollo de la IA.

El intercambio público viene en medio de una era turbulenta para OpenAI que comenzó con su breve destitución. Justo este mes, su ex jefe de alineación se unió a la empresa rival Antropic después de nivelar acusaciones similares contra Altman. Tuvo que retractarse de un modelo de voz notablemente similar al de la actriz Scarlett Johansson después de no asegurar su consentimiento. La empresa desmanteló su equipo de superalineación, y se reveló que los NDAs abusivos impedían que los ex empleados criticaran a la empresa.

OpenAI también ha asegurado acuerdos con el Departamento de Defensa para utilizar la tecnología GPT en aplicaciones militares. Mientras tanto, Microsoft, un importante inversor de OpenAI, también ha reportado haber realizado acuerdos similares relacionados con ChatGPT.

Las afirmaciones compartidas por Toner y McCauley parecen ser consistentes con las declaraciones compartidas por antiguos investigadores de OpenAI que abandonaron la empresa como Jan Leike quien señaló que "en los últimos años, la cultura y los procesos de seguridad [en OpenAI] han pasado a un segundo plano frente a productos llamativos" y que su equipo de alineación estaba "navegando contra el viento".

Taylor y Summers abordaron parcialmente estas preocupaciones en su columna, citando el nuevo comité de seguridad y su responsabilidad "para hacer recomendaciones a la junta completa sobre asuntos relacionados con decisiones críticas de seguridad para todos los proyectos de OpenAI."

Toner ha intensificado recientemente sus afirmaciones sobre la falta de transparencia de Altman.

"Para dar una idea del tipo de cosas de las que estoy hablando, cuando ChatGPT salió en noviembre de 2022, la junta no fue informada con anticipación", reveló Toner en el podcast The TED AI Show a principios de esta semana. "Nos enteramos de ChatGPT en Twitter."

Ella también dijo que la junta directiva de OpenAI no sabía que Altman era dueño del Fondo de Inversión de Startups de OpenAI, a pesar de sus afirmaciones de no tener participación financiera en OpenAI. El fondo invirtió millones recaudados de socios como Microsoft en otras empresas, sin el conocimiento de la junta. La propiedad de Altman en el fondo fue terminada en abril.

OpenAI no respondió a una solicitud de comentario de Decrypt.

Editado por Ryan Ozawa.

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.