University of Valencia logo Logo Open Government, Participation and Open Data Chair (PAGODA) Logo del portal

Conferencia: "La regulación de la inteligencia artificial en Europa: diferencias estructurales entre el Reglamento de la Unión Europea y el Convenio Marco del Consejo de Europa", por Ángel Presno Linera

  • October 17th, 2024
 

Conferencia: "La regulación de la inteligencia artificial en Europa: diferencias estructurales entre el Reglamento de la Unión Europea y el Convenio Marco del Consejo de Europa", por Ángel Presno Linera

Ángel Presno Linera
Catedrático de Derecho Constitucional. Universidad de Oviedo

En 2024, y con muy pocas fechas de diferencia, culminaron los trabajos de elaboración tanto del texto del Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican varios Reglamentos y Directivas (Reglamento de Inteligencia Artificial, RIA), como del Convenio Marco del Consejo de Europa sobre inteligencia artificial, derechos humanos, democracia y Estado de Derecho (en lo sucesivo, CIA), que se abrió a la firma durante la conferencia de Ministros de Justicia celebrada en Vilna el 5 de septiembre de 2024 y que ya ha sido firmado por Andorra, Georgia, Islandia, Noruega, Moldavia, San Marino, el Reino Unido, Israel, Estados Unidos y la propia Unión Europea.

Durante este proceso, cada institución era consciente de lo que estaba haciendo la otra; de hecho, el Comité de Ministros del Consejo de Europa decidió permitir la inclusión en las negociaciones de la Unión Europea (UE), que participó representada por la Comisión Europea, incluyendo en su delegación también a representantes de la Agencia de los Derechos Fundamentales de la Unión Europea y del Supervisor Europeo de Protección de Datos. Incluso el artículo 27.2 del Convenio Marco prevé que las Partes que sean miembros de la Unión Europea aplicarán, en sus relaciones mutuas, las propias normas de la Unión Europea que regulen las materias comprendidas en el ámbito de aplicación del Convenio, sin perjuicio de su objeto y fin y de su plena aplicación con las demás Partes. 

En las siguientes líneas comentaremos las diferencias estructurales más destacadas entre ambas normas, que, por otra parte, están llamadas a complementarse; antes cabe recordar que tanto el RIA como el CIA han asumido un enfoque regulatorio basado en los riesgos que puedan generar los sistemas de IA y ello en coherencia con el objetivo de garantizar un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales. A este mismo fin responden los que se podrían considerar como principios de actuación básicos en la materia: supervisión, igualdad y no discriminación, privacidad y protección de datos personales, fiabilidad y transparencia.

 

inteligencia artificial

 

Pues bien, debemos destacar, en primer lugar, que el ámbito de aplicación del RIA es regional, el territorio de la UE, al margen de que pueda generar un cierto “efecto Bruselas” (la emulación fuera de la UE de las normas reguladoras europeas como consecuencia de los mecanismos de mercado), mientras que el CIA ya nace con una cierta vocación de globalidad; así, en su Preámbulo se invoca la necesidad de establecer, con carácter prioritario, un marco jurídico aplicable a escala mundial que establezca principios generales y normas comunes que rijan las actividades dentro del ciclo de vida de los sistemas de inteligencia artificial, preservando eficazmente los valores compartidos y aprovechando los beneficios de la inteligencia artificial para la promoción de esos valores de manera que favorezca la innovación responsable, y el artículo 30.1 prevé que el Convenio estará abierto a la firma de los Estados miembros del Consejo de Europa, de los Estados no miembros que hayan participado en su elaboración y de la Unión Europea.

En segundo lugar, el RIA, de conformidad con lo dispuesto en el artículo 288 del Tratado de Funcionamiento de la Unión Europea, “será obligatorio en todos sus elementos y directamente aplicable en cada Estado miembro”; el Convenio Marco será obligatorio en la medida en los Estados se incorporen a él. De acuerdo con esta característica, los destinatarios del CIA son los Estados, mientras que el RIA se dirige directamente a los proveedores y los responsables del despliegue.

En tercer término, el RIA incluye una normativa extensa (113 artículos y XIII Anexos) y muy prolija, con preceptos muy detallados, mientras que el CIA se compone de un articulado mucho más reducido (36 artículos) y, desde luego, menos detallado. El propio Convenio destaca su “carácter marco…, que podrá complementarse con otros instrumentos para abordar cuestiones específicas relacionadas con las actividades dentro del ciclo de vida de los sistemas de inteligencia artificial” (número 11 del Preámbulo).

En cuarto lugar, el RIA, en términos generales, contiene más reglas, es decir, incluye comportamientos precisos de lo que puede, o no, hacerse en materia de IA; el CIA, por su parte, adopta una configuración mucho más principialista, esto es, contiene mandatos de optimización, caracterizados por el hecho de que pueden ser cumplidos en diferente grado. Así, por ejemplo, el Reglamento establece una serie de prácticas de IA que estarán prohibidas (artículo 5) e impone unas obligaciones que deben cumplir los sistemas de alto riesgo y, entre otros, los proveedores de modelos de IA de uso general (artículo 51).

Por su parte, el Convenio Marco dispone (artículo 4) que “cada Parte adoptará o mantendrá medidas para garantizar que las actividades dentro del ciclo de vida de los sistemas de inteligencia artificial sean compatibles con las obligaciones de protección de los derechos humanos, consagradas en el derecho internacional aplicable y en su legislación nacional”.


En quinto lugar, y también con carácter general pero no absoluto, y en la línea de lo dicho en el punto anterior, el RIA impone obligaciones de medios y de resultado mientras que el CIA incluye, esencialmente, obligaciones de resultado, dejando a los Estados la concreción de las medidas adecuadas para alcanzarlos. Así, por ejemplo, el Reglamento prevé que los sistemas de IA de alto riesgo se diseñarán y desarrollarán de modo que puedan ser vigilados de manera efectiva por personas físicas durante el período que estén en uso, lo que incluye dotarlos de herramientas de interfaz humano-máquina adecuadas (artículo 14.1); más adelante, dispone que los proveedores de sistemas de IA de alto riesgo que consideren o tengan motivos para considerar que un sistema de IA de alto riesgo que han introducido en el mercado o puesto en servicio no es conforme con el presente Reglamento adoptarán inmediatamente las medidas correctoras necesarias para que sea conforme, para retirarlo del mercado, desactivarlo o recuperarlo, según proceda (artículo 20.1). 

 

Inteligencia artificial

 

Por su parte, el Convenio Marco establece (artículo 1.1 y 1.2) que sus disposiciones “tienen por objeto garantizar que las actividades realizadas durante el ciclo de vida de los sistemas de inteligencia artificial sean plenamente compatibles con los derechos humanos, la democracia y el Estado de Derecho. Cada Parte adoptará o mantendrá medidas legislativas, administrativas o de otra índole apropiadas para dar efecto a las disposiciones establecidas en el presente Convenio.

Estas medidas se graduarán y diferenciarán según sea necesario en función de la gravedad y la probabilidad de que se produzcan efectos adversos para los derechos humanos, la democracia y el Estado de Derecho a lo largo del ciclo de vida de los sistemas de inteligencia artificial”; además, y por mencionar otro supuesto, conforme al artículo 5, “1.

Cada Parte adoptará o mantendrá medidas que tengan por objeto garantizar que los sistemas de inteligencia artificial no se utilicen para socavar la integridad, independencia y eficacia de las instituciones y procesos democráticos, incluido el principio de separación de poderes, el respeto de la independencia judicial y el acceso a la justicia. 2. Cada Parte adoptará o mantendrá medidas que tengan por objeto proteger sus procesos democráticos en el contexto de las actividades dentro del ciclo de vida de los sistemas de inteligencia artificial, incluido el acceso equitativo de las personas al debate público y su participación en él, así como su capacidad para formarse opiniones libremente. 

Finalmente, el RIA contiene un sistema de sanciones: “los Estados miembros establecerán el régimen de sanciones y otras medidas de ejecución, como advertencias o medidas no pecuniarias, aplicable a las infracciones del presente Reglamento que cometan los operadores y adoptarán todas las medidas necesarias para garantizar que se aplican de forma adecuada y efectiva... Tales sanciones serán efectivas, proporcionadas y disuasorias (artículo 99.1). A continuación, el artículo especifica el importe de las multas administrativas que se deben imponer, que son significativas (así, el no respeto de la prohibición de las prácticas de IA a que se refiere el artículo 5 estará sujeto a multas administrativas de hasta 35.000.000 de euros o, si el infractor es una empresa, de hasta el 7 % de su volumen de negocios mundial total correspondiente al ejercicio financiero anterior, si esta cuantía fuese superior).

Por su parte, el Convenio Marco se limita a disponer que “cada Parte establecerá o designará uno o más mecanismos eficaces para supervisar el cumplimiento de las obligaciones establecidas en el Convenio” (artículo 26.1). Sin embargo, al tratarse de un tratado, en función de las normas del sistema jurídico nacional con respecto a la aplicación del derecho internacional, los tribunales nacionales podrán declarar las violaciones de determinados artículos. Para muchos signatarios, esto significará que los tribunales u otras autoridades tendrán que determinar si las normas de la CIA son suficientemente precisas para ser consideradas autoejecutables. De todas maneras, el CIA probablemente funcionara como documento interpretativo para el Tribunal Europeo de Derechos Humanos (TEDH), que no está mencionado como tal en el texto del CIA, donde sí se prevé una “Conferencia de las partes” como mecanismo de resolución de disputas (artículo 23). 

En suma, es bien sabido que Europa va muy por detrás de Estados Unidos y de China en materia de investigación, desarrollo e innovación de la IA; con la normativa que hemos comentado quiere asumir, al menos, el liderazgo de la regulación jurídica de la IA a través de las nuevas normas que hemos analizado aquí. Se trata de un gran intento de armonización y construcción de un marco estándar y mínimo para Europa, con alcance mundial. Estaremos pendientes de sus resultados.
 

 


 

 

Ángel Presno Linera
Ángel Presno Linera

Catedrático de Derecho Constitucional. Universidad de Oviedo