Noticias

Profesora Magdalena Bustos y los desafíos del Derecho Privado y de Consumo ante la Inteligencia Artificial

Desafíos del Derecho Privado y de Consumo ante la IA

¿Qué podemos hacer con las reglas que tenemos, frente a los nuevos desafíos y problemas que se presentan? Esta es una de las preguntas que se hace la abogada y profesora de nuestra Facultad, Magdalena Bustos, y que el congreso internacional titulado “IA, Derecho Privado y consumo. Problemas y desafíos globales de la IA para el Derecho Privado y el Derecho de Consumo” abordó con expertos.

“Esta fue una instancia de diálogo nacional e internacional que se creó por la manera en que las nuevas tecnologías estaban repercutiendo en la responsabilidad civil, en el derecho de contratos y en el Derecho de Consumo, buscando ampliar el análisis desde una perspectiva más allá del Derecho de Tecnologías, abordando el Derecho Sustantivo, entrando al diálogo concreto”, explica la profesora Bustos.

Agrega que además del tema de contrato y consumo, “fue muy interesante el debate que se presentó a propósito de la naturaleza jurídica de la inteligencia artificial: si efectivamente puede considerarse una cosa, si es un bien, si es susceptible de encajarse dentro de las categorías clásicas del Código Civil. Esta, que no es una pregunta tan fácil de contestar, dio lugar a mucha discusión. Y es la propiedad. No es que no lo supiéramos, sino que no lo incorporamos por mantener algo un poco más acotado, pero lo interesante es que al final, la inteligencia artificial trasciende, no solo la responsabilidad civil, sino el Derecho Civil en general”.

La profesora Natalia Rueda, a propósito de su expertise en Derecho de la Niñez y de la Infancia, comentó cómo pueden existir daños a la identidad personal por el uso de IA. Ya no desde el ámbito de la responsabilidad civil, sino desde el ámbito del derecho de la persona y del Derecho de Familia.

Profesor Ignacio Ríos, profesora Magdalena Bustos y profesor  Alexander Vargas de la U. Externado de Colombia.Entonces, nosotros creo que tenemos este desafío de comenzar a hacer la bajada hacia los temas que son de aplicación práctica e insertarnos en la discusión. 

-¿Qué reglas generales del derecho de la responsabilidad civil y del Derecho de Consumo destacaría?

-La formación del consentimiento es uno de los ejes claves, tanto en la contratación general como en la contratación aplicada al Derecho del Consumo. Por lo tanto, la idea de la libertad contractual está tensionada o más bien puesta a prueba, tanto en la contratación general, como en la contratación del Derecho del Consumo. Casi todas las reglas generales podrían ser puestas a prueba.

-¿Puestas a prueba en qué sentido?

-En la aplicabilidad y en la reformulación. Porque, como se discutió en el congreso, no es que nuestras reglas no sean aplicables, es que tenemos que esforzarnos en ver hasta qué medida resultan aplicables. Y por eso es que están puestas a prueba. Porque no es una regla en particular, no es un principio en particular; es el Derecho de la Responsabilidad Civil en general, es el Derecho de la Contratación en general, con todos sus principios; el Derecho al Consumo, con sus reglas y principios. Entonces, la pregunta es: ¿qué tan tensionadas están todas estas reglas y principios? Y segundo: ¿nuestras reglas generales hasta qué punto permiten dar solución a los problemas que se presentan? Solo realizando esa reflexión vamos a poder concluir si efectivamente necesitamos o no una reforma legislativa. Pero para eso tenemos que previamente realizar esta reflexión y esta discusión.

¿Habrá un punto de solución, pensado en que todos los días esto avanza y se desarrolla?

-Sí, pero por otro lado, no es primera vez que el derecho debe enfrentar desafíos de innovaciones tecnológicas y ha sido capaz de resistir. Esta es una herramienta que, hasta el día de hoy, está al servicio del ser humano, está controlada por seres humanos y tiene propósitos definidos por humanos.

La disrupción tecnológica pareciera ser más fuerte -según mi intuición y también como fue expuesto por los profesores Danielle Zaror y Diego M. Papayannis- porque nuestros sistemas en general resisten. Solo que tenemos que ser capaces de identificar hasta qué punto esa resistencia es suficiente. Alexander Vargas mencionaba que el problema no se da desde el punto de vista de la regulación, sino que más bien desde el punto de vista de la prueba.

-Se complejiza más cuando no hay un humano de por medio.

-Y cuando son múltiples actores los que intervienen: quien lo diseña, quien lo fabrica, quien lo usa, el destinatario final... Otro tema es el entrenamiento y el funcionamiento sobre la base de datos. Los datos siempre tienen sesgos: culturales, raciales, o sobre la representación de la población. Eso hace que la información utilizada para la recomendación, predicción o decisión del sistema no sea fiable, especialmente en la inteligencia artificial generativa, que es la falta de fiabilidad en sus respuestas.

-Entonces cómo se conforma la prueba.

-Si la carga probatoria la tiene el sujeto que ha sufrido el daño, ¿cómo vamos a probar el sesgo? ¿Cómo va a probar el funcionamiento erróneo en la codificación? No se puede. Entonces, es un problema de prueba, no de si se aplica o no la regla de responsabilidad civil. Aplicada la regla de la responsabilidad civil actual, se genera una dificultad probatoria que se acerca a la imposibilidad.

Añade que “la dificultad de identificar al sujeto repercute en el nexo de causalidad, como elemento de la responsabilidad civil, y ese es el gran problema tratándose de responsabilidad civil extracontractual. Si no identificamos cuál de todos los sujetos fue responsable, si no logramos probar el nexo causal, cualquier pretensión indemnizatoria se ve obstaculizada”.

-¿Qué papel juegan los principios preventivos en la gestión de riesgos asociados a la IA?

-Donde más nos centramos fue en la suficiencia o insuficiencia, específicamente de la regulación de los problemas clásicos que presenta la responsabilidad civil. También si sería mejor un régimen de responsabilidad estricta u objetiva. Muchos simpatizaron con la responsabilidad estricta, precisamente por la dificultad probatoria. En cuanto a la gestión del riesgo, se conversó sobre deberes de diligencia asociados a evitar o mitigar los riesgos una vez que se presenten. Es decir, el deber no es solo no dañar, sino realizar actos positivos para evitar que el riesgo cause un daño o que el daño se extienda.

Ejemplo internacional

En las distintas presentaciones también se abordaron los estándares de diligencia aplicables al sistema de la IA. Estos estándares no pueden estar desvinculados de los parámetros éticos reconocidos por organismos internacionales. Por ejemplo, el deber de trazabilidad, el deber de transparencia, el control durante todo el ciclo de vida de una IA.

“En este sentido, tanto la UNESCO como la OCDE han propuesto principios éticos aplicables al ejercicio y la utilización de la inteligencia artificial en cualquier tipo de actividad. Estos también están contenidos en el proyecto de ley que regula la IA, actualmente en trámite en Chile. Estos ejes son claves no solamente para la utilización y el funcionamiento, sino que también para la responsabilidad”, señala Magdalena Bustos. 

Esta ley es similar a lo que ha hecho la Unión Europa en la ley de inteligencia artificial (vigente desde agosto de 2024 y que será plenamente aplicable en agosto de 2026), que clasifica los sistemas en atención a su riesgo, identificando algunos como prohibidos por su alto riesgo y otros que deben cumplir determinado requisitos por su mayor o menor riesgo que van presentado. Esto es similar al proyecto en Chile.

-¿Destacaría un ejemplo práctico que le haya parecido llamativo?

-El más interesante fue el presentado por Diego Martínez sobre un caso en el Coliseo de Roma. Se usaron algoritmos de IA en un software para hacer parecer que no había entradas disponibles en el punto de venta de la agencia general. Así, colapsaron el mercado y los usuarios fueron forzados a comprarlas a revendedores virtuales particulares a precios más altos. Es como una reventa, pero hecha por IA.

-¿Qué aspecto ético o regulatorio considera urgente abordar en Chile?

-Hay que enfatizar en el deber de informar para qué se está utilizando la IA, o sea la transparencia. Que nosotros como consumidores sepamos cuándo estamos interactuando con un sistema de Inteligencia Artificial, y con qué propósito. Por ejemplo, si voy a ser seleccionada para un trabajo, quiero saber si lo decide un humano o una IA, y qué criterios se usaron. Ahí está el deber de quién la utiliza, el deber de ser responsable y ser capaz de dar una buena explicación sobre cuáles fueron los criterios que se utilizaron para llegar a esa decisión. O por qué fui o no apta para un crédito en el banco, qué datos utilizaron para tomar esa decisión. Ellos tienen que tener la capacidad de explicarnos qué están utilizando, para qué y cuáles han sido los criterios que utilizaron.

¿Destacaría otros aspectos?

-También es fundamental la trazabilidad, si no sabemos lo que se hace con los datos, difícilmente vamos a llegar a tener una buena respuesta desde la responsabilidad civil. El control humano, que es otro de los principios éticos claves: siempre debe haber un humano a quien podamos acudir. La IA debe ser supervisada por humanos durante todo su ciclo de vida y debe ser segura, no poner en riesgo nuestros derechos fundamentales.

-¿Estamos preparados en Chile para esta nueva etapa?

-Nos estamos preparando. Estamos en proceso de inserción en este debate y en esta discusión, para saber hasta qué medida y respecto de qué tenemos que legislar. Solo a través de una reflexión profunda podremos saber si nuestras normas actuales son suficientes o si hay que legislar.