En Resumen
- Australia introdujo estándares voluntarios de seguridad de IA para promover el uso ético y responsable de la inteligencia artificial, incluyendo diez principios clave.
- Las directrices, publicadas por el gobierno australiano, enfatizan la gestión de riesgos, transparencia, supervisión humana y equidad para asegurar sistemas de IA seguros y equitativos.
- Aunque no son legalmente vinculantes, los estándares están basados en marcos internacionales y se espera que guíen futuras políticas.
Australia ha introducido estándares voluntarios de seguridad de IA con el objetivo de promover el uso ético y responsable de la inteligencia artificial, que incluyen diez principios clave que abordan preocupaciones sobre la implementación de la IA.
Las directrices, publicadas por el gobierno australiano el miércoles pasado, hacen hincapié en la gestión de riesgos, transparencia, supervisión humana y equidad para garantizar que los sistemas de IA operen de manera segura y equitativa.
Si bien no son legalmente vinculantes, los estándares del país están basados en marcos internacionales, especialmente los de la UE, y se espera que guíen futuras políticas.
Dean Lacheca, VP analista de Gartner, reconoció los estándares como un paso positivo, pero advirtió sobre desafíos en el cumplimiento.
"El estándar voluntario de seguridad de la IA es un buen primer paso para brindar tanto a las agencias gubernamentales como a otros sectores industriales cierta certeza sobre el uso seguro de la IA", dijo Lacheca a Decrypt.
"Las... barreras de protección son todas buenas prácticas para las organizaciones que buscan expandir su uso de la IA. Pero el esfuerzo y las habilidades necesarias para adoptar estas barreras de protección no deben subestimarse".
Los estándares exigen procesos de evaluación de riesgos para identificar y mitigar posibles peligros en los sistemas de IA y garantizar transparencia en cómo operan los modelos de IA.
El informe destaca la supervisión humana para evitar la dependencia excesiva en sistemas automatizados, y la equidad es un enfoque clave, instando a los desarrolladores a evitar sesgos, especialmente en áreas como el empleo y la salud. Además, señala que enfoques inconsistentes en toda Australia han creado confusión para las organizaciones.
"Si bien hay ejemplos de buenas prácticas en toda Australia, los enfoques son inconsistentes", dice un informe.
"Esto está causando confusión en las organizaciones y dificultando que comprendan lo que necesitan hacer para desarrollar y utilizar la inteligencia artificial de manera segura y responsable".
Para abordar esas preocupaciones, el marco destaca la no discriminación, instando a los desarrolladores a garantizar que la inteligencia artificial no perpetúe sesgos, especialmente en áreas sensibles como el empleo o la salud.
La protección de la privacidad también es un enfoque clave, requiriendo que los datos personales utilizados en los sistemas de inteligencia artificial se manejen cumpliendo con las leyes de privacidad australianas y protegiendo los derechos individuales.
Además, se exigen medidas de seguridad sólidas para defender los sistemas de inteligencia artificial contra accesos no autorizados y posibles usos indebidos.
Editado por Sebastian Sinclair