Por Jason Nelson
3 min lectura
A raíz de los llamados para que el CEO Emad Mostaque renuncie y los vicepresidentes de la compañía abandonen la empresa debido a su uso de contenido con derechos de autor, el desarrollador de imágenes de IA con sede en el Reino Unido, Stability AI, podría estar buscando un comprador, según un informe del miércoles de Bloomberg. Stability AI está detrás del popular modelo de inteligencia artificial generativa Stable Diffusion, que añadió funciones de video la semana pasada.
Bloomberg dijo que la empresa de inversión tecnológica estadounidense Coatue Management envió una carta a Stability AI en octubre, solicitando detalles sobre el salario de los altos ejecutivos, incluido Mostaque. Coatue cuestionó el liderazgo de Mostaque, diciendo que había provocado la salida de varios altos directivos.
Si bien nadie ha aceptado la invitación de propiedad de Stability, dos empresas que han surgido como posibles compradores son Jasper, desarrollador de herramientas de marketing de IA, y Cohere, desarrollador canadiense de IA, según un informe del sitio de análisis de datos PYMNTS.
Stability AI aún no ha respondido a la solicitud de comentarios de Decrypt.
Lanzado en agosto de 2022, Stable Diffusion utiliza IA generativa para crear imágenes basadas en las indicaciones del usuario. Según PYMNTS, Coatue valoró Stability AI en $1.000 millones en ese momento.
Al igual que Midjourney y Dall-E, Stable Diffusion ha sido controvertido, ya que estas herramientas se han utilizado para crear deepfakes generados por IA de líderes mundiales y eventos.
En septiembre, Stability y Cohere firmaron el compromiso de la Administración Biden de desarrollar la IA de manera segura. Stability también participó en la Cumbre de Seguridad del Reino Unido en Bletchley Park en Buckinghamshire, Inglaterra, en noviembre. En la cumbre, 29 países y la Unión Europea firmaron una declaración para frenar el desarrollo no regulado de la IA. Pero aunque Stability firmó el compromiso, la postura de la empresa sobre lo que constituye un uso justo llevó a uno de sus altos ejecutivos a renunciar públicamente.
A principios de este mes, el vicepresidente de Audio de Stability, Ed Newton-Rex, renunció debido a la justificación de la empresa para entrenar modelos de IA con material con derechos de autor.
"He renunciado a mi puesto como líder del equipo de Audio en Stability AI porque no estoy de acuerdo con la opinión de la empresa de que entrenar modelos de IA generativa con obras con derechos de autor sea 'uso legítimo'", dijo Newton-Rex en Twitter.
En una entrevista con Decrypt, Newton-Rex dijo que su decisión de dejar Stability y denunciar la práctica de utilizar material con derechos de autor sin permiso debia llamar la atención sobre un problema generalizado en la industria.
Newton-Rex señaló un comentario de 22 páginas sobre IA generativa que Stability AI presentó ante la Oficina de Derechos de Autor de Estados Unidos, calificando a la tecnología emergente como "un uso aceptable, transformador y socialmente beneficioso del contenido existente protegido por el uso legítimo".
"Mi objeción aquí no es realmente contra Stability porque Stability adopta el mismo enfoque que muchas otras empresas de IA generativa en el espacio", dijo Newton-Rex. "Realmente es una posición transversal a la industria a la que me opongo. En efecto, estaba renunciando a todo un grupo de empresas que adoptan el mismo enfoque."
Editado por Ryan Ozawa.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.