Mercurio Legal

carlos amunategui96x96

En Derecho siempre existe la obsesión por definir. Como juristas modernos, tendemos a suponer que si no somos capaces de definir un objeto, no podemos regularlo y, por tanto, queda en la oscura región de las reglas de oro del estilo de “se puede hacer lo que no está prohibido” o alguna otra inanidad similar. El problema es que hay cosas en el Derecho difícilmente definibles, como la muerte, la humanidad e innumerables otras entidades, que tienen consecuencias jurídicas importantes. La inteligencia artificial es una de ellas, toda vez que no estamos en posición siquiera de definir la inteligencia natural.

Las discusiones acerca de la regulación de los agentes artificiales suele comenzar con una compleja diatriba respecto a la definición de la inteligencia, que resulta poco útil para nuestros fines. El dictum romano acerca de que toda definición es peligrosa (D.50.17.202) suena fuerte al respecto. Ahora bien, ¿significa esto que no podemos regular en absoluto las actividades que realizan los modelos algorítmicos que pueblan nuestro mundo tomando decisiones en nuestro lugar? Por supuesto que no. El Derecho no siempre se ha valido de la cómoda muleta de las definiciones para reglamentar el mundo, sino que estas son un legado de la filosofía griega que solo la inseguridad epistemológica del mundo temprano moderno trajo a un lugar estelar del mundo jurídico. Cuando no hay seguridad en las definiciones, debemos recurrir a los casos y construir desde la base la pirámide normativa de reglas, conceptos y principios, sirviéndonos de los elementos ya presentes en nuestro sistema jurídico para extenderlo a los nuevos elementos que se integran a él.

La inteligencia artificial está llena de casos donde las capacidades técnicas hacen que lo imposible se torne en rutinario. Desde que las máquinas se hicieron capaces de tomar decisiones, la pregunta es qué valor jurídico damos a esas determinaciones que toman entidades sin voluntad, sin subjetividad. ¿Qué efectos tienen contratos suscritos por seres sin voluntad? ¿Cómo determinamos la responsabilidad por actos de seres sin culpa o dolo? Si un algoritmo realiza actos arbitrariamente discriminatorios, ¿quién debe responder por sus actos? Estas son las preguntas verdaderamente relevantes. Aunque el Derecho puede beber de las ciencias y de la filosofía, no es ni lo uno ni lo otro. Su finalidad es distinta, es construir un orden social justo y por ello puede actuar en ámbitos donde la filosofía está ciega y la ciencia no toma partido. Incluso, otorgar a esta entidad un estatuto similar a aquel de las personas jurídicas o la herencia yacente no parece descabellado, a fin de poder hacer recaer la responsabilidad pecuniaria por sus actos en un patrimonio estable. Ahora bien, con esto no estamos hablando de otorgarles derechos fundamentales en un sentido constitucional del término.

Hoy en día existe una suerte de ansiedad por la posible emergencia de seres artificiales dotados de consciencia, y de la regulación y reconocimiento que debiésemos dar a tales entidades. En verdad, no sabemos lo que es la consciencia y, por ello mismo, es improbable que podamos reproducirla artificialmente. Muchos tienden a pensar que constituiría una suerte de propiedad emergente de un sistema, donde si se alcanza un determinado volumen de interacciones en las redes neuronales con que se construyen los agentes artificiales, eventualmente saldrá un ser que pueda experimentar el mundo como nosotros y cuestionarnos en nuestra humanidad. Esta es una forma de pensamiento mágico y poco más. Los árboles, aparentemente, también tienen formas de comunicación y consciencia sin tener redes neuronales1. Esto tiene importancia porque las razones para otorgar protección jurídica equivalente a nuestros derechos humanos a determinadas entidades usualmente dicen relación con su capacidad de experimentar el mundo y de sufrir. Un ser que no sufre, como un algoritmo, no debiese tener derechos fundamentales. Si un agente artificial expresa ideas que nos molestan, no existen motivos por los cuales no podamos acallarlo, como fue el caso de Tay, el algoritmo de Microsoft de 2016 diseñado para emitir tweets y que debió ser sacado de circulación a las pocas horas cuando se declaró ferviente admirador de Hitler y comenzó a hacer proposiciones sexuales a los internautas. El asunto sería muy diferente si se tratase de un ser humano, en cuyo caso solo queda tolerar sus exabruptos.

Descargar