Lideres Empresariales Son Cautelosamente Optimistas Sobre Regulación de la IA

Los ejecutivos discuten posibles regulaciones de IA en Google Cloud Next, destacando la necesidad de equilibrar el desarrollo de la IA y la supervisión regulatoria.

Por Jason Nelson

6 min lectura

La rápida proliferación de plataformas de inteligencia artificial desde el lanzamiento de ChatGPT en noviembre del año pasado ha llevado a los responsables de la formulación de políticas de todo el mundo a esforzarse por ponerse al día con la tecnología y establecer regulaciones y salvaguardias para esta tecnología emergente. Durante una discusión en un foro en Google Cloud Next, varios líderes empresariales debatieron sobre posibles normas y cómo podrían afectar a las empresas que ya se han adentrado en la IA.

Organismos globales, incluida la Organización de las Naciones Unidas, han dado la voz de alarma sobre la IA generativa y están tratando de controlar esta tecnología cada vez más común. El conflicto entre regular adecuadamente la IA sin frenar la innovación persiste. Como se ha visto en el debate en torno a las criptomonedas, el elefante en la habitación es la reticencia a imponer regulaciones que podrían frenar el auge del negocio de la IA.

"Creo firmemente que esta emoción y discusión en torno a la IA es algo diferente de lo que hemos visto, por ejemplo, en el espacio de las criptomonedas", dijo Christoph Rabenseifner, Director de Estrategia Tecnológica y Datos del Deutsche Bank. "Porque la inteligencia artificial y todas las herramientas generativas de IA de las que estamos hablando hoy, influirán más o menos en todos los aspectos del negocio".

Rabenseifner dijo que no podía pensar en un sector laboral en el que la IA generativa no ayudara y facilitara algo, ya sea más rápido o mejor.

"Por eso, creo que los reguladores a nivel mundial, y hay enfoques muy diferentes en todo el mundo, no lo eliminarán por completo", dijo.

Algunos líderes empresariales, incluido Rabenseifner, ven la propia "carrera armamentista" de la IA como una salvaguardia contra políticas perjudiciales.

Las empresas tendrán que explicar al público y a los "policymakers" o hacedores de leyes cómo funcionan los modelos de IA y hacer todo lo posible para que el público se sienta cómodo con la tecnología, dijo. "Todos estamos en este viaje juntos [...] Haremos lo que sea necesario para que todos se sientan cómodos y podamos utilizar la tecnología en el futuro".

En consonancia con el llamado de Rabenseifner a la transparencia, el CTO de SAP, Juergen Mueller, señaló plataformas como Vertex AI de Google y SynthID, que pueden indicar cuando la inteligencia artificial generativa está detrás de una imagen publicada en línea. Google anunció el martes lanzamiento de la nueva tecnología de marca de agua en Google Cloud Next en San Francisco.

A pesar de esta transparencia, Mueller dijo que las empresas también deberían tener un plan de respaldo en caso de fallos del servicio o si tienen que desactivar sus herramientas de IA por motivos legales o regulatorios, señalando a las empresas que construyen vehículos sin conductor controlados por IA.

"Necesitamos construir sistemas confiables", dijo Mueller. "Así que si ese servicio está fuera de servicio por cualquier motivo o ya no se permite, no queremos que estos camiones simplemente se queden ahí sin poder hacer [su trabajo]".

"Los planes son simples. Si el gobierno nos dice que paremos, pararemos", agregó Gibu Thomas, Vicepresidente Ejecutivo de Estée Lauder Companies. "Hemos estado aquí durante 75 años y queremos estar aquí durante los próximos 75. Y eso solo sucederá si no comprometemos la confianza del consumidor y seguimos las leyes y regulaciones aplicables".

Thomas destacó la importancia de ser proactivos en la identificación del posible mal uso de la tecnología de IA. Este enfoque proactivo se extiende a los principios de Estée Lauder, especialmente en lo que respecta a las representaciones de los estándares de belleza.

Estos principios, no son solo pautas, sino que se utilizan activamente en cómo la empresa aplica la tecnología, señaló Thomas.

"No queremos tener representaciones digitales que sean modelos estéticos y que den a las personas una idea equivocada de lo que significa la belleza auténtica", dijo Thomas. "Por lo tanto, hay principios que utilizamos para asegurarnos de que, al aplicar esta tecnología en las formas en que interactuamos con nuestros consumidores y la utilizamos en nuestro negocio, lo hacemos de manera reflexiva y responsable".

A principios de este mes, un informe del Center for Countering Digital Hate acusó a las herramientas de inteligencia artificial generativa de crear "contenido perjudicial", incluyendo texto e imágenes relacionadas con trastornos alimentarios.

Los desarrolladores de chatbots OpenAI, Google y Stability AI defendieron su tecnología después de que Decrypt informara sobre los hallazgos del CCDH.

De acuerdo con sus compañeros de panel, el CTO de Cohere, Saurabh Baji, dijo que el objetivo final de la empresa es servir a sus clientes, y agregó que si hay una parada total en el desarrollo de IA para cualquier empresa, eso importa para Cohere.

"Saber dónde trazar límites, cómo implementar salvaguardias y cómo realmente tener la mayor cantidad de opciones para la configurabilidad y el control del lado del cliente es fundamental", dijo Baji.

Baji enfatizó la importancia de una asociación entre la industria tecnológica y los reguladores para garantizar que la información más actualizada sobre la tecnología de IA esté disponible para su escrutinio regulatorio, señalando que la regulación suele quedarse rezagada unos pasos detrás de los avances tecnológicos.

"No es la primera vez que vemos esto con la inteligencia artificial, y con cualquier nueva tecnología", dijo Baji. "Así que los riesgos ciertamente no son completamente nuevos".

Baji dijo que sería un error que los responsables de formular políticas frenen el desarrollo de la inteligencia artificial, algo que él no ve que suceda.

"Asegurarnos de que realmente podamos abrirnos y mostrar lo último y lo mejor o lo que está por venir a los reguladores también es importante", dijo Baji.

Para Ori Goshen, CEO de A121 Labs, no hay vuelta atrás cuando se trata de la adopción generalizada de la inteligencia artificial.

"Es la realidad", dijo Goshen. "Veremos mucha investigación en los próximos años".

Goshen vinculó la interpretabilidad a la idea de la transparencia, sugiriendo que proporcionar más información sobre cómo estos modelos toman decisiones ayudará a ganar la confianza del público en lugar de tratar estas tecnologías como "cajas negras", o sistemas que proporcionan resultados sin ninguna explicación fácilmente comprensible de cómo llegaron a un resultado en particular.

"Algo que sea más interpretable es probablemente fundamental para la confianza que tenemos en estos modelos", dijo.

La Directora de Google Cloud, Aashima Gupta, concluyó la discusión sobre la política de IA, enfatizando la necesidad de un desarrollo audaz, pero responsable de las tecnologías de IA, pero reconoció que la IA es demasiado profunda e importante como para no tener supervisión regulatoria también, dando como ejemplo el uso de la IA en atención médica.

Get crypto news straight to your inbox--

sign up for the Decrypt Daily below. (It’s free).

Noticias recomendados