En el Congreso se analiza un proyecto de ley que busca regular el uso de la inteligencia artificial y que propone establecer un marco normativo para su uso, desarrollo e implementación. Especialistas de Derecho UC -Matías Aránguiz y Sebastián Dueñas- advierten que esta iniciativa podría frenar la innovación y señalan las limitaciones de basarse en la Ley de IA de la Unión Europea como principal referente.
Recomendaciones de películas, conversaciones con chatbots, el uso de asistentes virtuales e incluso la limpieza del hogar con aspiradoras inteligentes son sólo algunos ejemplos de cómo la inteligencia artificial (IA) se ha integrado en la vida cotidiana.
Sin embargo, existe una discusión abierta sobre cómo se regula su uso, entre otros elementos de debate, que fueron parte de una interesante conversación en el cuarto capítulo del podcast de Derecho UC “Código abierto”, en el que abordamos, precisamente, si la IA se puede regular o no, junto con los desafíos que plantea.
En este contexto, en el Congreso ya se analiza un proyecto: el 4 de agosto, la Cámara de Diputadas y Diputados dio su aprobación general a un proyecto de ley que busca, precisamente, regular el uso de la inteligencia artificial en Chile. Si esta iniciativa se concreta, el país se convertiría en el primero de la región en contar con una legislación específica sobre el tema.
La normativa busca asegurar que el desarrollo y uso de tecnologías de inteligencia artificial respete los derechos fundamentales, garantizando la dignidad, libertad e igualdad; promover la innovación; entregar certezas legales a quienes desarrollan y utilizan IA; y proteger a la ciudadanía frente a riesgos. El proyecto también contempla la creación de una Comisión Nacional de Inteligencia Artificial, coordinada por el Ministerio de Ciencia, y sanciones de hasta 20 mil UTM.
Sin embargo, la iniciativa, aunque tenga como objetivo establecer reglas claras, podría entorpecer la innovación, según advierte Sebastián Dueñas, investigador del Programa de Derecho, Ciencia y Tecnología de Derecho UC. “El proyecto asigna a todo sistema de ‘alto riesgo’ exigencias en materia de trazabilidad técnica, gestión de riesgos y supervisión humana, cuyo incumplimiento puede ser sancionado con multas que ascienden a las 20.000 UTM. Si a esto le sumamos la amplia definición de ‘incidente’ en el articulado, nos enfrentamos a una regulación bastante severa y poco previsible, traduciéndose en un claro freno a la innovación”, dice el investigador.
La propuesta toma como referente la Ley de IA de la Unión Europea, que clasifica los sistemas de IA según su nivel de riesgo:
- Inaceptable: Sistemas que vulneran la dignidad humana, manipulan emociones o usan reconocimiento facial en tiempo real, excepto por seguridad pública.
- Alto riesgo: Sistemas que pueden dañar la salud, seguridad, derechos o el medio ambiente, como los usados en procesos de selección laboral.
- Riesgo limitado: Herramientas con bajo potencial de manipulación o error, como los chatbots de atención pública.
- Sin riesgo evidente: Aplicaciones que no afectan derechos fundamentales, como las que recomiendan películas o música.
Sin embargo, los estándares europeos por los cuales se rige el proyecto se alejan y diferencian de la realidad del país, según plantea el profesor de Derecho UC Matías Aránguiz, subdirector del Programa de Derecho, Ciencia y Tecnología. “Estamos tratando de regular inteligencia artificial a la europea, pero con un presupuesto mucho más limitado. En el proyecto hay discusión si es que habrá o no una persona a cargo del seguimiento e implementación de la norma, mientras que en la Unión Europea hay un grupo muy grande de personas que va a poder ejecutar la norma. Tratar de poner los mismos criterios, pero sin el personal adecuado, es el primer gran problema, aparte de lo normativo”, dice el académico.
En esta misma línea, Sebastián Dueñas también plantea que “al replicar el modelo europeo casi sin adaptación, se aparta de nuestra Política Nacional de IA y del Plan Nacional de Data Centers 2024-2030, que aspiran a convertirnos en hub regional”. Y agrega: “Regular la IA es necesario, pero hacerlo con la misma rigidez que la Unión Europea, justo cuando están buscando suavizar su propio marco, sólo agregaría fricción al desarrollo chileno”.
Información y nota: UC.cl