Por Jason Nelson
3 min lectura
Con el objetivo de evitar posibles impactos negativos en su informe, Associated Press emitió nuevas directrices el miércoles que limitan el uso de herramientas de inteligencia artificial generativa por parte de los periodistas del personal para la elaboración de noticias.
Amanda Barrett, Vicepresidenta de Estándares e Inclusión de AP, estableció restricciones que determinan cómo la AP tratará con la inteligencia artificial en el futuro. En primer lugar, los periodistas no deben utilizar ChatGPT para crear contenido publicable.
"Cualquier resultado de una herramienta de inteligencia artificial generativa debe tratarse como material de origen no verificado", escribió Barrett, añadiendo que el personal debe utilizar su criterio editorial y los estándares de obtención de información del medio al considerar cualquier información para su publicación.
Además, la AP no permitirá el uso de IA generativa para agregar o restar elementos de fotos, videos o audio. Tampoco transmitirá imágenes generadas por IA que se sospeche que sean una "representación falsa" de noticias, mejor conocida como deepfakes, a menos que sea el tema de una historia y esté claramente etiquetada.
Barrett aconsejó a los periodistas de AP que sean diligentes y utilicen la misma precaución y escepticismo que suelen tener, incluyendo tratar de identificar la fuente del contenido original.
"Si los periodistas tienen alguna duda sobre la autenticidad del material", "no deben usarlo", escribió Barret.
Si bien la publicación destaca las formas en que los periodistas de AP están limitados en su capacidad para utilizar IA generativa, también adopta un tono optimista en algunas partes, sugiriendo que las herramientas de IA también pueden beneficiar a los periodistas en su trabajo.
"La precisión, la imparcialidad y la rapidez son los valores orientadores de los informes de noticias de AP, y creemos que el uso consciente de la inteligencia artificial puede servir a estos valores y, con el tiempo, mejorar nuestra forma de trabajar", señaló Barrett.
Además, aclaró que la agencia de noticias de 177 años no ve la IA como un reemplazo de los periodistas, y agregó que los periodistas de AP son responsables de la precisión y la imparcialidad de la información que comparten.
Barrett señaló el acuerdo de licencia que AP firmó con OpenAI el mes pasado, que otorga al creador de ChatGPT acceso al archivo de noticias de AP desde 1985. A cambio, el acuerdo proporciona al medio de comunicación acceso a la suite de productos y tecnologías de OpenAI.
Las noticias del acuerdo con OpenAI llegaron días antes de que la startup de IA donara $5 millones al Proyecto de Periodismo Americano. Ese mismo mes, OpenAI firmó un contrato de seis años con la plataforma de medios de stock Shutterstock para acceder a su vasta biblioteca de imágenes y medios.
En medio de la emoción por el potencial de la IA generativa y la capacidad de encontrar información de manera conversacional a través de chatbots, existen preocupaciones sustanciales y crecientes sobre la precisión de parte de la información proporcionada finalmente a los usuarios.
Si bien los chatbots de IA pueden producir respuestas que parecen ser verídicas, también tienen la conocida costumbre de generar respuestas que, de hecho, no son verdaderas. Este fenómeno se conoce como alucinación de IA, que puede generar contenido falso, noticias o información sobre personas, eventos o hechos.
La Associated Press no respondió de inmediato a la solicitud de comentarios de Decrypt.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.