En Resumen

  • El presidente de la Corte Suprema de los Estados Unidos, John Roberts, advirtió sobre el riesgo de deshumanización de la ley debido al aumento significativo de la inteligencia artificial (IA) en 2023, citando la invasión de la privacidad y los posibles sesgos en los modelos de IA.
  • A pesar del potencial de la IA para aumentar el acceso a la justicia, Roberts destacó preocupaciones sobre alucinaciones de IA, como citar casos inexistentes, y los sesgos programados en modelos de IA que podrían conducir a decisiones judiciales injustas.
  • Roberts expresó optimismo de que la IA no reemplazará pronto a los jueces humanos, pero señaló que el trabajo judicial, especialmente a nivel de juicio, se verá significativamente afectado por la IA.

El presidente de la Corte Suprema de los Estados Unidos, John Roberts, citó el significativo aumento de la inteligencia artificial en 2023, advirtiendo en un informe de fin de año que la tecnología podría "deshumanizar" la ley.

"Los defensores de la IA destacan su potencial para aumentar el acceso a la justicia, especialmente para los litigantes con recursos limitados", escribió. "La IA obviamente tiene un gran potencial para aumentar drásticamente el acceso a información clave tanto para abogados como para no abogados.

"Pero de manera obvia, también corre el riesgo de invadir los intereses de privacidad y deshumanizar la ley", continuó.

Roberts destacó el aumento del uso de la IA en teléfonos inteligentes, software de reconocimiento de voz y televisores inteligentes, pero también señaló cómo los profesores de derecho están asombrados y cautelosos ante la tecnología emergente.

Gran parte de su análisis se centró en el potencial de la IA para hacer que el sistema legal sea más accesible.

"Para aquellos que no pueden permitirse un abogado, la IA puede ayudar", dijo Roberts. "Impulsa nuevas herramientas altamente accesibles que brindan respuestas a preguntas básicas, incluyendo dónde encontrar plantillas y formularios judiciales, cómo completarlos y dónde presentarlos ante el juez, todo sin salir de casa".

Las palabras del Juez llegan en un momento en que la inteligencia artificial, particularmente la inteligencia artificial generativa, ha entrado en el ámbito principal en muchas industrias y casos de uso, incluyendo educación, defensa, atención médica y el sistema legal.

"Estas herramientas tienen el potencial de ser muy útiles para solucionar cualquier desajuste entre los recursos disponibles y las necesidades urgentes en nuestro sistema judicial", continuó Roberts. "Pero cualquier uso de la IA requiere precaución y humildad".

El Juez Roberts señaló las limitaciones de la IA, incluyendo la alucinación, que ha llevado a los abogados a citar casos inexistentes.

En octubre, el nuevo abogado del ex miembro de Fugees, Pras Michel, solicitó un nuevo juicio, alegando que el uso de inteligencia artificial generativa por parte del equipo legal anterior y la tendencia de la tecnología a inventar hechos llevaron a que su cliente perdiera el caso.

En diciembre, un juez federal exigió al equipo legal del ex abogado del ex presidente Donald Trump, Michael Cohen, que presentara pruebas impresas de los casos legales presentados en los documentos judiciales, ya que el tribunal no pudo verificar su existencia.

Los desarrolladores de inteligencia artificial generativa han invertido mucho en combatir las alucinaciones de IA. En mayo, OpenAI anunció que estaba mejorando las habilidades de resolución de problemas matemáticos de ChatGPT para reducir las alucinaciones. En diciembre, Fetch AI y SingularityNET anunciaron una asociación para frenar las alucinaciones de IA utilizando tecnología descentralizada.

"SingularityNET ha estado trabajando en varios métodos para abordar las alucinaciones en los LLM", dijo Alexey Potapov, Director General de AGI de SingularityNET. "Nos hemos enfocado en esto desde que SingularityNET fue fundada en 2017".

"Nuestra opinión es que los LLM solo pueden llegar hasta cierto punto en su forma actual y no son suficientes para llevarnos hacia la inteligencia artificial general, sino que son una distracción potencial del objetivo final", agregó Potapov.

Por su parte, Roberts también destacó los sesgos potenciales programados en los modelos de IA que podrían llevar a decisiones injustas en casos judiciales.

"En casos penales, el uso de IA para evaluar el riesgo de fuga, la reincidencia y otras decisiones en gran medida discrecionales que involucran predicciones ha generado preocupaciones sobre el debido proceso, la confiabilidad y el sesgo potencial", dijo Roberts. "Al menos en la actualidad, los estudios muestran una percepción pública persistente de una 'brecha de equidad humano-IA', reflejando la opinión de que las decisiones humanas, a pesar de sus fallas, son más justas que lo que la máquina produce".

A pesar de la advertencia, Roberts se mostró optimista de que la inteligencia artificial no reemplazará pronto a los jueces humanos.

"Pero con igual confianza, predigo que el trabajo judicial, especialmente a nivel de juicio, se verá significativamente afectado por la IA", dijo Roberts. "Esos cambios implicarán no solo cómo los jueces realizan su trabajo, sino también cómo comprenden el papel que desempeña la IA en los casos que se les presentan".

Editado por Ryan Ozawa.

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.