Una encuesta realizada recientemente por la UNESCO a operadores judiciales de todo el mundo pone de relieve una gran carencia de orientación y formación institucional sobre el uso de sistemas de IA. Como respuesta, la UNESCO, en colaboración con expertos internacionales, ha elaborado un proyecto de directrices para el uso de la IA en juzgados y tribunales.
Las directrices sobre la ética de la IA de la Unesco tienen el objetivo de garantizar que las tecnologías de IA se integren en los sistemas judiciales de manera que defienda la justicia, los derechos humanos y el estado de derecho.
Las pautas se elaboraron como parte del Kit de herramientas mundial de la UNESCO sobre IA y el Estado de derecho, financiado por el proyecto de la Comisión Europea “Apoyo a los Estados miembros en la implementación de la Recomendación de la UNESCO sobre la ética de la IA mediante herramientas innovadoras”. Asimismo, el organismo internacional advierte que ha crecido el interés por la adopción de herramientas de IA por parte de juzgados y tribunales.
La Unesco y la IA
Recientemente, jueces, personal de apoyo judicial, fiscales y abogados de todo el mundo han comenzado a utilizar chatbots impulsados por modelos de lenguaje grandes (LLM) para redactar documentos legales, decisiones judiciales y argumentos elaborados en audiencias judiciales. Sin embargo, la orientación formal sobre el uso adecuado de estas herramientas para personas u organizaciones del sector judicial es limitada.
Story Protocol, la blockchain para proteger la propiedad intelectual de la IA, obtiene $80 millones
Existen algunos principios, reglas o directrices oficiales publicados sobre cómo se pueden utilizar las herramientas de IA de manera ética y responsable para la administración de justicia. Incluyen guías publicadas por Australia (2024), Brasil (2020), Canadá (2023, 2024), Nueva Zelanda (2023) y Reino Unido (2023).
Efectos cascada
La necesidad de orientación se ve acentuada por las nuevas leyes sobre IA que incluyen reglas específicas sobre el uso de estas herramientas en contextos judiciales. Por ejemplo, la Ley de IA de la Unión Europea. En este sentido, la mayoría de principios y recomendaciones propuestas en las Directrices clasifica de “alto riesgo” aquellos sistemas de IA “destinados a ser utilizados por una autoridad judicial”. Como fiscales, árbitros, abogados, colegios de abogados y sociedades de abogados, civiles o en su nombre para ayudar a una autoridad judicial en la investigación e interpretación de los hechos.
Por qué Grok 2, la nueva versión de la IA de Elon Musk, supera a ChatGPT
El documento indica que los sistemas de IA integrados en los procesos de toma de decisiones pueden tener efectos en cascada en todo el sistema judicial. Por un lado, la adopción de sistemas de IA puede beneficiar a los usuarios de los tribunales. Por ejemplo, el uso de herramientas de IA para la gestión de tribunales que forman parte de dichas organizaciones judiciales.
Actividades previas al juicio
Los sistemas de IA pueden respaldar actividades previas al juicio. Por ejemplo, automatizar el sistema de archivos de los tribunales, audiencias judiciales (traducción automática) y procedimientos posteriores a la sentencia (anonimizar el tribunal). Por otro lado, tales impactos pueden ser perjudiciales cuando las decisiones contribuyan a discriminar sistemáticamente a personas o grupos de personas vulnerables y en situaciones en las que dichas herramientas son defectuosas o se utilizan indebidamente.
La irresponsable responsabilidad de la IA
Aunque las Directrices fueron diseñadas específicamente para orientar la adopción por parte del poder judicial y el uso de sistemas de IA, también son pertinentes para la profesión jurídica en general. Las normas ofrecen orientación para la adopción y el uso de herramientas de IA e incluyen recomendaciones específicas para sistemas de IA generativa.
Estas herramientas pueden ayudar a mejorar la calidad del trabajo del poder judicial al facilitar la gestión judicial, la redacción de documentos, la exploración de temas específicos, la automatización de tareas y el apoyo a los procesos de toma de decisiones. Además, una de las características clave de los LLM es que facilitan la interacción entre computadoras y servidores de la administración jurídica, e investigadores.
Juicio humano
Las herramientas de IA no sustituyen al razonamiento jurídico cualificado, al juicio humano ni a las adaptaciones personalizadas porque no tienen una comprensión racional o contextual de un problema legal. Además, el uso de LLM con fines legales por parte de personas que no son abogados requiere precaución, ya que los resultados de los sistemas pueden parecer autorizados y coherentes al tiempo que presentan hechos que pueden ser inexactos y respuestas que no son consistentes con los hechos legales.
Los tokens de inteligencia artificial (IA) más capitalizados
En resumen, las Directrices proponen principios y orientaciones específicas para que el poder judicial evite la adopción de herramientas de IA que no respeten los derechos humanos, impidan el uso indebido de los sistemas de IA y mejoren los beneficios que estas herramientas pueden ofrecer.
Consulta pública
Tras amplias consultas con expertos, las directrices están ahora abiertas a consulta pública hasta el 5 de septiembre de 2024. La UNESCO alienta a las partes interesadas, incluidos los profesionales judiciales, los expertos jurídicos y el público en general, a que examinen el proyecto de directrices y brinden comentarios al respecto.
Recomendaciones sobre la ética de la IA
Los rápidos avances tecnológicos en IA han generado numerosas oportunidades a nivel mundial. Sin embargo, estos cambios repentinos también plantean profundas preocupaciones éticas. Estos surgen del potencial que tienen los sistemas de IA para incorporar prejuicios, contribuir a la degradación climática, amenazar los derechos humanos y mucho más.
Semejantes riesgos asociados a la IA ya han empezado a sumarse a las desigualdades existentes, perjudicando aún más a grupos ya marginados. Para corregir esto, 193 Estados Miembros adoptaron por aclamación la Recomendación sobre la ética de la IA en 2021. En noviembre de 2021, la UNESCO elaboró la primera norma mundial sobre la ética de la IA: la «Recomendación sobre la ética de la inteligencia artificial». Este marco fue adoptado por los 193 Estados miembros.
La protección de los derechos humanos y la dignidad es la piedra angular de la Recomendación, basada en el avance de principios fundamentales como la transparencia y la equidad, recordando siempre la importancia de la supervisión humana de los sistemas de IA.
Principios fundamentales
Sin embargo, lo que hace que la Recomendación sea excepcionalmente aplicable son sus amplios ámbitos de acción política, que permiten traducir los valores y principios fundamentales en acciones relacionadas con la gobernanza de datos, el medio ambiente, el género, la educación, la investigación, la salud y el bienestar social, entre otros muchos.
Link del artículo original
Si el presente artículo, video o foto intrigue cualquier derecho de autor por favor señálelo al correo del autor o en la caja de comentarios.
If this article, video or photo intrigues any copyright, please indicate it to the author’s email or in the comment box.