LOGO_AIR_IAB_N_HD.jpg

¿Cómo determinar la admisibilidad de las pruebas generadas por IA en los tribunales?

En la era digital, la evidencia electrónica es parte integral de los procedimientos jurídicos. Se utiliza correos electrónicos, mensajes de texto, publicaciones en redes sociales e imágenes de vigilancia para establecer hechos y respaldar argumentos jurídicos. A pesar de que la comunidad jurídica ha desarrollado prácticas para manejar la evidencia electrónica, la Inteligencia Artificial (IA) agregó una nueva capa de complejidad al incrementar la evidencia generada por IA.

Tipos de contenido generado por IA

Los modelos predictivos de IA son capaces de proporcionar información sobre eventos futuros, mientras que la biometría contribuye en la identificación y los servicios de transcripción de IA convierten material de audio en transcripciones escritas para pruebas judiciales. Estos son solo algunos ejemplos de las pruebas generadas por IA.

Los jueces enfrentan desafíos al evaluar la admisibilidad de dichas pruebas con problemáticas relacionadas a la confiabilidad, la transparencia, la interpretabilidad y el sesgo en dichas pruebas. Este desafío se hace aún más evidente con el uso de sistemas de IA generativa, que están contribuyendo a la desinformación y la información errónea a gran escala. Un ejemplo de este tipo de contenido generado por IA es la imagen que muestra al Papa con una chaqueta blanca esponjosa, que parecería ser genuina.

Preguntas fundamentales para jueces y abogados

Ahora bien, imaginemos que una imagen mostrara a un líder político involucrado en actividades delictivas. En tal escenario, ¿cómo demostraría un abogado o juez la autenticidad de tal imagen? ¿Cómo puede un juez determinar que la imagen fue generada por IA y no es real? Asimismo, además de los numerosos riesgos que afectan a la autenticidad y fiabilidad de las pruebas, la opacidad de los algoritmos de IA dificulta la transparencia, mientras que el sesgo en los datos de entrenamiento puede conducir a resultados discriminatorios. La ausencia de directrices estándar sobre cómo verificar la evidencia generada por la IA complica el proceso de toma de decisiones.

Los coches autónomos son otro ejemplo real de los desafíos relacionados con la evidencia electrónica. Por ejemplo, existe incertidumbre sobre cómo se podrían utilizar los datos de un detector de somnolencia en los sistemas de justicia inquisitorio o acusatorios para determinar la responsabilidad durante un accidente. ¿Cómo se dispondrán estos datos para la investigación penal? ¿Los datos generados por máquinas que se basan en la interacción hombre-máquina contarían como evidencia? Debemos evaluar la precisión y las limitaciones de los datos del sistema de IA, determinar la responsabilidad en caso de accidentes o disputas y comprender el razonamiento detrás de las decisiones del sistema.

Función de los operadores judiciales

Los jueces desempeñan un papel crucial en la evaluación de la admisibilidad de las pruebas generadas por la IA y deben aprender a transitar las complejidades de la IA para tomar decisiones bien fundamentadas con respecto a su admisibilidad. Los jueces deben desarrollar una comprensión del algoritmo, los datos específicos utilizados para su entrenamiento, los principios de la IA, los sesgos y el posible uso indebido de los sistemas de IA, como ser el deepfake.

Reconociendo la necesidad de debatir y desarrollar capacidades sobre este tema, la UNESCO organizó un seminario web titulado "El desafío de la admisibilidad: Evidencia generada por la IA en los tribunales". En colaboración con la Corte Interamericana de Derechos Humanos (Costa Rica), el Colegio Judicial Nacional (Estados Unidos), el Centro Lawyers Hub (Kenia) y el Centro para la Gobernanza de la Comunicación de la Universidad Nacional de Derecho (India), el debate abordó las complejidades entorno a la admisibilidad de la evidencia generada por IA.

El evento reunió a alrededor de 400 participantes y un diverso panel de expertos que participaron en debates provechosos sobre este apremiante tema. Los oradores incluyeron a Isabela Ferrari, Juez Federal de Brasil, Prof. Sabine Gless, experta en derecho penal y procedimiento penal, Jueza (retirada), Paul Grimm, profesor de Duke Law, el Dr. Andrew Rens, investigador principal con experiencia en tecnología de la información y la comunicación y Stephen Mason, experto en firmas y evidencia electrónicas.

Fuente: UNESCO