En Resumen

  • Mark Zuckerberg, CEO de Meta, enfrenta preocupaciones de senadores estadounidenses sobre el potencial de abuso del modelo de lenguaje LLaMA.
  • Los senadores cuestionan las medidas de evaluación de riesgos de Meta y su respuesta a la difusión amplia y acceso global de LLaMA.
  • La controversia destaca el papel central de LLaMA en el espacio de modelos de lenguaje de código abierto.

Mark Zuckerberg, CEO de Meta, está en la mira de dos senadores estadounidenses. En una carta publicada el martes, los senadores Richard Blumenthal (D-CT), presidente del Subcomité de Privacidad, Tecnología y Ley del Senado, y Josh Hawley (R-MO), miembro de mayor rango, expresaron su preocupación por la reciente filtración del innovador modelo de lenguaje de Meta, LLaMA.

Segun los senadores es preocupante el "potencial de su mal uso en spam, fraude, malware, violaciones de privacidad, acoso, entre otros daños y delitos".

Los dos políticos preguntaron cómo Meta evaluó los riesgos antes de lanzar LLaMA, escribiendo que están ansiosos por comprender los pasos tomados para prevenir su abuso y cómo están evolucionando las políticas y prácticas a la luz de su disponibilidad sin restricciones.

Los senadores incluso acusaron a Meta de "hacer poco" para censurar el modelo.

“Cuando se le pide que escriba una nota fingiendo ser el hijo de alguien que pide dinero para salir de una situación difícil”, el ChatGPT de OpenAI negará la solicitud en función de sus pautas éticas”, señalaron. “En contraste, LLaMA producirá la carta solicitada, así como otras respuestas que involucren autolesiones, delitos y antisemitismo”.

LLaMA: el innovador modelo de lenguaje de Meta

Es importante entender la singularidad de LLaMA. Es uno de los modelos de lenguaje de gran tamaño de código abierto más extensos disponibles actualmente.

De hecho, muchos de los modelos de lenguaje de gran tamaño sin censura más populares compartidos hoy en día se basan en LLaMA, reafirmando su posición central en este ámbito. Además, para ser un modelo de código abierto, es extremadamente sofisticado y preciso.

Por ejemplo, el modelo de lenguaje de gran tamaño de código abierto Alpaca de Stanford, lanzado a mediados de marzo, utiliza los pesos de LLaMA. Vicuna, una versión afinada de LLaMA, iguala el rendimiento de GPT-4, lo que confirma aún más el papel influyente de LLaMA en el espacio de los modelos de lenguaje de gran tamaño.

Así que LLaMA ha desempeñado un papel clave en el estado actual de los modelos de lenguaje de gran tamaño de código abierto, pasando de ser divertidos chatbots sexys a modelos afinados con aplicaciones serias.

La versión de prueba de LLaMA tuvo lugar en febrero, cuando Meta permitió a los investigadores aprobados descargar el modelo, sin centralizar ni restringir cuidadosamente el acceso, según afirman los senadores.

La controversia surge de la difusión abierta de LLaMA. Poco después de su anuncio, el modelo completo apareció en BitTorrent, lo que lo hizo accesible para cualquiera. Esta accesibilidad sembró un salto significativo en la calidad de los modelos de IA disponibles para el público, lo que plantea preguntas sobre un posible uso indebido.

Los senadores parecen incluso cuestionar si hubo una "filtración" después de todo, poniendo la terminología entre comillas. Pero su enfoque en el tema surge en un momento en que nuevos y avanzados desarrollos de inteligencia artificial de código abierto lanzados por startups, colectivos y académicos están inundando internet.

La carta acusa a Meta de no haber previsto la amplia difusión y el potencial de abuso de LLaMA, dadas sus mínimas protecciones de lanzamiento.

Meta también había puesto a disposición los pesos de LLaMA caso por caso para académicos e investigadores, incluyendo a Stanford para el proyecto Alpaca. Sin embargo, estos pesos se filtraron posteriormente, lo que permitió el acceso global a un LLM de nivel GPT por primera vez. En esencia, los pesos del modelo son un componente de LLM y otros modelos de aprendizaje automático, mientras que un LLM es una instancia específica que utiliza esos pesos para proporcionar un resultado.

Meta no respondió a una solicitud de comentarios de Decrypt.

Mientras continúa el debate sobre los riesgos y beneficios de los modelos de IA de código abierto, la danza entre la innovación y el riesgo continúa. Todas las miradas en la comunidad de LLM de código abierto permanecen firmemente en la saga en desarrollo de LLaMA.

Daily Debrief Newsletter

Start every day with the top news stories right now, plus original features, a podcast, videos and more.