Diez luces y sombras de la mal llamada “Ley europea de inteligencia artificial”

“Cada máquina tiene inteligencia artificial. Y cuanto más avanzada se pone una máquina, más avanzada será la inteligencia artificial. Pero una máquina no puede sentir lo que está haciendo. Solo sigue las instrucciones – nuestras instrucciones – de los seres humanos”. 

(Abhijit Naskar)

La tecnología no es ni buena ni mala desde un punto de vista antropocentrista. Por eso siempre decimos que es ridículo aplicarle los estándares éticos exigibles a nuestro comportamiento. Con la tecnología todo depende del uso que se le dé, y en este sentido, una tecnología tan potente como la IA puede ser increíblemente positiva o potencialmente destructiva.

Aunque ya adelanto que creo que estamos metidos en un proceso imparable frente al que no tenemos ni siquiera la capacidad de frenarlo, sí parece sensato establecer algún tipo de límite legal a los aludidos riesgos, sin perjuicio de que intuyo que en la práctica va a ser lo mismo que meter en la cárcel a Hulk, como a continuación trataremos de argumentar. Sin ánimo de exhaustividad, veamos diez hitos (luces, sombras o quién sabe) de la mal llamada “Ley europea de inteligencia artificial”.

1. Europe is different

Europa es sin duda la región planetaria pionera en la vigilancia de la IA, en parte para salvaguardar sus objetivos, como ahora el Mercado Único Digital de la UE, en parte por su afán regulatorio, muy superior, según indica la tradición continental, al de América o Asia. Con el antecedente del “Libro Blanco sobre la inteligencia artificial: un enfoque europeo orientado a la excelencia y la confianza” (2020), en 2021 se prepara una propuesta de Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial (que ya se ha hecho famoso como la Ley de Inteligencia Artificial o simplemente “AI Act”). Su tramitación ya esta muy avanzada. El pasado día 8 de diciembre, los negociadores del Parlamento y del Consejo, por fin llegaron a un acuerdo provisional sobre la “Ley”, consensuando un texto que ahora tendrá que ser aprobado por el Parlamento y por el Consejo para convertirse en un Reglamento de la UE.

2. Una norma dura con los riesgos

El futuro Reglamento parece que seguirá un enfoque basado en los riesgos, y así distingue entre los usos de la IA que generan i) un riesgo inaceptable, ii) un riesgo alto, y iii) un riesgo bajo o mínimo. La lista de prácticas prohibidas abarca todos los sistemas de IA cuyo uso se considera inaceptable por ser contrario a los valores de la Unión, por ejemplo, porque violan derechos fundamentales. En definitiva, la UE centra su atención regulatoria en los riesgos de la IA, especialmente en su impacto sobre la salud, la seguridad o los derechos fundamentales, evitando asimismo, en la medida de lo posible, situaciones de discriminación o desprotección de datos. En todo caso es importante señalar que la norma no regulará la IA, inabarcable en sí misma, sino principalmente los riesgos de la IA. Esto no es un rasgo negativo de la norma, sino un matiz.

3. 2026

El Reglamento debería poder entrar totalmente en vigor hacia finales de 2026, aunque algunas partes lo harán antes (a partir de 2024). En efecto, se aplicará por fases: la oficina europea se creará de forma inmediata, la prohibición de los sistemas no permitidos de inteligencia artificial llegará a los seis meses y los requisitos para los sistemas y modelos de IA generativa, a los doce. En fin. Cada vez queda más ridícula la comparación entre los tiempos de la tecnología y los del legislador

4. El problema del ámbito territorial

Como dijimos en “El impacto de las TIC en la configuración clásica del derecho. Especial referencia al principio de territorialidad”(Revista Tecnología, Ciencia y Educación, ISSN 2444-250X, ISSN-e 2444-2887, Nº. 4, 2016), “La multiplicidad de poderes legislativos consolidada a finales del siglo pasado (con el derecho internacional y el europeo) alcanza su mayor grado de complejidad con la masificación de internet y el surgimiento de un probablemente necesario nuevo marco de autorregulación, algo similar a un nuevo «legislador» o poder legislativo, constituido por los gigantes de la red. La existencia de esta nueva rama del derecho (¿lo es?), pero por encima de todo la desaparición del espacio físico, choca directamente con el clásico principio de territorialidad que caracterizaba al derecho tal y como lo hemos conocido. Al respecto surgen infinidad de preguntas y cuestiones, algunas jurídicamente muy interesantes y otras que ciertamente nos causan bastante preocupación. Lo principal es, ante todo, ser conscientes de esta nueva situación de «extraterritorialidad», y, a partir de ahí, resolver las nuevas relaciones jurídicas o con efectos de derecho que se produzcan. El debate sobre la necesidad de una international ciberlaw, o de la respuesta inmediata de cada Estado ante cada situación, o la mera confianza en este sistema hasta cierto punto «autorregulado», es una cuestión que podemos simplemente plantear y dejar abierta, si bien parece claro que la respuesta más atinada solo puede venir por una inteligente combinación de todas las soluciones. En realidad esta materia es inabordable en un solo estudio, por lo que en el presente nos hemos centrado en las relaciones de derecho privado –contractuales y extracontractuales– y el impacto de la problemática en relación con la propiedad intelectual y en el derecho penal”. Ahora solo falta saber si Europa, gracias a su “entorno seguro”, va a atraer la inversión y el desarrollo de la IA, o por el contrario va a ahuyentar la innovación si se percibe que la normativa impone demasiadas restricciones.

5. Aplicaciones prohibidas

Se subraya la amenaza potencial para los derechos de los ciudadanos y la democracia que plantean determinadas aplicaciones que utilizan IA, de tal manera que quedan directamente prohibidas las siguientes: sistemas de categorización biométrica que utilizan características sensibles (por ejemplo, creencias políticas, religiosas, filosóficas, orientación sexual, raza); extracción no dirigida de imágenes faciales de Internet o imágenes de CCTV para crear bases de datos de reconocimiento facial; reconocimiento de emociones en el lugar de trabajo y en instituciones educativas y la denominada puntuación social basada en comportamiento social o características personales. Las excepciones, evidentemente están relacionadas con la función policial de investigación de los delitos, donde la IA, particularmente los sistemas de identificación biométrica (RBI), es una herramienta fundamental, no solo en la propia investigación e identificación de presuntos delincuentes, sino también, de forma muy efectiva, en la protección de las víctimas y la prevención del delito.

Una de las creaciones más emblemáticas de la que probablemente fue la persona más inteligente de la Historia. La IA nunca podrá emular la genialidad humana, pero ya nos supera sobradamente en eficacia

6. Sandbox

Otro tipo de control, que particularmente nos agrada pero que dudamos de que pueda ser realmente efectivo, es el establecimiento de los llamados entornos de pruebas regulatorios y pruebas en el mundo real (sandbox) para fomentar y garantizar que las empresas, especialmente las pymes, puedan desarrollar soluciones de IA sin soportar presiones incompatibles con el libre mercado por parte de los gigantes tecnológicos. Esta es una política al servicio del Mercado Único Digital europeo, y una buena muestra de la tan manida colaboración público privada. En este contexto se pone en marcha en España el primer entorno controlado de pruebas para comprobar cómo se implementan los requisitos aplicables a los sistemas IA de alto riesgo de la propuesta de reglamento de la UE. La norma de referencia es el Real Decreto 817/2023, de 8 de noviembre, que establece un entorno controlado de pruebas para el ensayo del cumplimiento de la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial.

7. Régimen sancionador

El Reglamento contemplará un régimen de infracciones (derivadas del incumplimiento de las obligaciones y controles) y prevé sanciones, en concreto multas económicas, que van desde los 7,5 millones de euros o el 1,5% del volumen global de negocio de las empresas hasta los 35 millones de euros o el 7% del volumen global de negocio. Parece disuasorio, sobre todo por la introducción del concepto «porcentaje del volumen global», que para algunos gigantes representa mucho más que esos 35 millones, pero ¿será efectivo? De momento, en materia de protección de datos, Facebook, Google y compañía poco menos que se han carcajeado de las multas de la UE.

8. IA generativa

Esto ha sido una sorpresa, pero la cuestión finalmente entrará en el texto debido al auge meteórico de estas herramientas. Decimos “Escribe un poema de amor”, y ChatGPT lo hace creando una composición más o menos afortunada, pero inédita. Incluso puede hacerlo emulando el estilo de tu poeta preferido. Como recoge esta fuente, “Borja Adsuara ha señalado por ejemplo el acuerdo sobre las reglas básicas que debe regir el uso de la IA generativa, pero ha observado que las «múltiples dudas» y problemas de propiedad intelectual que genera esta tecnología se tendrán todavía que abordar en una norma específica sobre propiedad intelectual. A su juicio no es previsible que se revise a corto plazo la recién aprobada directiva de «copyright» en el Mercado Único Digital de la UE”. Este tema efectivamente está lejos de ser resuelto y todo apunta que su complejidad irá en aumento. No hay más que ver algunas polémicas o incluso «mosqueos» de cantantes o actores, sobre todo los primeros, perfectamente imitados e incluso superados por su versión fake; o el abuso por parte de los estudiantes (¿alguien les culpa?) o de los autores de generar todo o parte de sus trabajos a través de una herramienta de generación de contenidos.

9. Oficina Europea de Inteligencia Artificial

La norma prevé su creación inmediata. Este organismo coordinará el uso de la tecnología entre las autoridades nacionales y que estará asesorada por un panel de científicos y de organizaciones de la sociedad civil.

10. ¿Y en España?

Aquí ya existe regulación. El art. 23 de la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación, establece:

«Artículo 23. Inteligencia Artificial y mecanismos de toma de decisión automatizados.

1. En el marco de la Estrategia Nacional de Inteligencia Artificial, de la Carta de Derechos Digitales y de las iniciativas europeas en torno a la Inteligencia Artificial, las administraciones públicas favorecerán la puesta en marcha de mecanismos para que los algoritmos involucrados en la toma de decisiones que se utilicen en las administraciones públicas tengan en cuenta criterios de minimización de sesgos, transparencia y rendición de cuentas, siempre que sea factible técnicamente. En estos mecanismos se incluirán su diseño y datos de entrenamiento, y abordarán su potencial impacto discriminatorio. Para lograr este fin, se promoverá la realización de evaluaciones de impacto que determinen el posible sesgo discriminatorio.

2. Las administraciones públicas, en el marco de sus competencias en el ámbito de los algoritmos involucrados en procesos de toma de decisiones, priorizarán la transparencia en el diseño y la implementación y la capacidad de interpretación de las decisiones adoptadas por los mismos.

3. Las administraciones públicas y las empresas promoverán el uso de una Inteligencia Artificial ética, confiable y respetuosa con los derechos fundamentales, siguiendo especialmente las recomendaciones de la Unión Europea en este sentido.

4. Se promoverá un sello de calidad de los algoritmos”.

En resumen: eliminación de posibles sesgos, transparencia en el diseño, “IA ética” y sello de calidad. Por tanto, nuestro país tiene regulación y organización de la IA, nada menos que un Ministerio de Transformación Digital, con su Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA), y además ya está recién constituido el consejo rector de la Agencia Española de Supervisión de la Inteligencia Artificial. A nivel de políticas públicas, existe una Estrategia Nacional de Inteligencia Artificial (ENIA), que es uno de los ejes de la Agenda España Digital 2026​​ y uno de los componentes del Plan de Recuperación, Transformación y Resiliencia de la economía española. Por último, hay que recordar que España ha sido el primer país del mundo en crear ese entorno regulatorio o sandbox al que nos referíamos (el aludido Real Decreto 817/2023, de 8 de noviembre), desarrollando de alguna manera el «AI Act» de forma anticipada.

Licencia Creative Commons Red Social NovaGob, (cc) 2021.

Inicia Sesión con tu Usuario y Contraseña

o    

¿Olvidó sus datos?

Create Account