Por Jason Nelson
5 min lectura
Los editores de Wikipedia han decidido restringir cómo se puede utilizar la inteligencia artificial en la plataforma, en una reciente actualización de la política que prohíbe el uso de Large Language Models (LLMs) para escribir o reescribir artículos.
La nueva directriz refleja la creciente preocupación dentro de la comunidad de Wikipedia de que el texto generado por IA puede entrar en conflicto con los estándares de la plataforma, particularmente en lo que respecta a la verificabilidad y las fuentes confiables.
"El texto generado por Large Language Models frecuentemente viola varias de las políticas de contenido centrales de Wikipedia", señala la actualización de política. "Por esta razón, el uso de LLMs para generar o reescribir contenido de artículos está prohibido, salvo las excepciones indicadas a continuación".
La política aún permite el uso limitado de herramientas de IA, como sugerir ediciones básicas de estilo en la escritura propia del editor, siempre que el sistema no introduzca información nueva. Sin embargo, se recomienda a los editores revisar cuidadosamente esas sugerencias.
Si bien la nueva política no menciona sanciones por el uso de contenido generado por IA, según las directrices de Wikipedia sobre divulgación, repetir el mal uso constituye un "patrón de edición disruptiva" y puede derivar en un bloqueo o expulsión. Wikipedia sí ofrece a los editores la posibilidad de restablecer sus cuentas mediante un proceso de apelación.
"Los bloqueos pueden revertirse con el acuerdo del administrador que lo impuso, mediante la intervención de otros administradores en caso de que el bloqueo fuera claramente injustificable, o (en casos muy excepcionales) mediante apelación ante el Comité de Arbitraje", indicó Wikipedia.
"La Fundación Wikimedia no determina las políticas editoriales ni las directrices de Wikipedia; lo hacen los editores voluntarios", afirmó una portavoz de la Fundación Wikimedia a Decrypt. "La fortaleza de Wikipedia ha sido y siempre será su modelo centrado en las personas y basado en el voluntariado".
Según Emily M. Bender, profesora de lingüística en la Universidad de Washington, algunos usos de los modelos de lenguaje en herramientas de edición pueden ser razonables, aunque delimitar claramente la frontera entre editar y generar texto resulta difícil.
"Una de las cosas que se puede hacer con un modelo de lenguaje es construir un corrector ortográfico muy eficaz, por ejemplo", señaló Bender a Decrypt. "Creo que es razonable decir que está bien ejecutar un corrector ortográfico en las ediciones. Y si se avanza al siguiente nivel, un corrector gramatical, eso también puede ser aceptable".
Bender agregó que el desafío surge cuando los sistemas van más allá de la corrección gramatical y comienzan a modificar o generar contenido, y señaló que los Large Language Models carecen del tipo de responsabilidad que los colaboradores humanos aportan a los proyectos de conocimiento colectivo.
"El uso de Large Language Models para producir texto sintético es una propiedad fundamental de estos sistemas: no existe responsabilidad, ni conexión con lo que alguien cree o defiende", afirmó. "Cuando hablamos, lo hacemos basándonos en lo que creemos y de lo que somos responsables, no en alguna noción objetiva de verdad. Y eso no existe en los Large Language Models".
Bender también señaló que el uso generalizado de ediciones generadas por IA podría afectar la reputación del sitio.
"Si en cambio la gente toma atajos y produce algo que parece una edición o artículo de Wikipedia y lo publica allí, eso degrada el valor y la reputación general del sitio", dijo.
Joseph Reagle, profesor asociado de estudios de comunicación en la Universidad Northeastern, que estudia la cultura y la gobernanza de Wikipedia, afirmó que la respuesta de la comunidad refleja preocupaciones de larga data sobre la precisión y las fuentes.
"Wikipedia desconfía de la prosa generada por IA", señaló Reagle a Decrypt. "Se toman muy en serio la caracterización precisa de lo que las fuentes confiables afirman sobre un tema. La IA ha tenido serias limitaciones en ese frente, como afirmaciones 'alucinadas' y fuentes fabricadas".
Reagle añadió que las políticas centrales de Wikipedia también influyen en cómo los editores perciben las herramientas de IA, y destacó que muchos Large Language Models han sido entrenados con contenido de Wikipedia. En octubre, la Fundación Wikimedia informó que las visitas humanas a Wikipedia cayeron aproximadamente un 8% interanual, a medida que los motores de búsqueda y los chatbots ofrecen respuestas directamente en sus plataformas, en lugar de redirigir a los usuarios al sitio.
En enero, la Fundación Wikimedia anunció acuerdos con empresas de IA, como Microsoft, Google, Amazon y Meta, que les permiten utilizar el material de Wikipedia a través de su producto Enterprise, un servicio comercial diseñado para la reutilización a gran escala de su contenido.
"Si bien el uso del contenido de Wikipedia está permitido por sus licencias, aún existe cierta antipatía entre los wikipedistas hacia los servicios que se apropian del contenido de las comunidades y luego imponen demandas no deseadas a esas comunidades para que gestionen el aluvión de contenido basura generado por IA", señaló Reagle.
A pesar de la prohibición sobre el uso de LLMs, Wikipedia sí permite el uso de herramientas de IA para traducir artículos de otras ediciones en otros idiomas al inglés, siempre que los editores verifiquen el texto original. La política también advierte a los editores que no deben basarse únicamente en el estilo de escritura para identificar contenido generado por IA, sino centrarse en si el material cumple con las políticas centrales de Wikipedia y el historial de edición del colaborador.
"Algunos editores pueden tener estilos de escritura similares a los de los LLMs", señala la actualización. "Se necesita más evidencia que simples indicios estilísticos o lingüísticos para justificar sanciones, y es preferible analizar el cumplimiento del texto con las políticas de contenido centrales y las ediciones recientes del editor en cuestión".
Nota del editor: Este artículo fue actualizado tras su publicación para incluir el comentario de la Fundación Wikimedia.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.