Marco regulatorio de la Unión Europea sobre IA

En este apartado trataremos el marco regulatorio de la Unión Europea sobre IA, así como los diferentes informes que han servido de referencia a los legisladores para redactar la normativa.

A continuación una lista con la documentación en formato pdf más relevante al respecto:

Propuesta de Reglamento en materia de IA elaborado por la Comisión Europea

La Comisión Europea publicó el 21 de abril de 2021 la propuesta de una normativa en materia de Inteligencia Artificial (la propuesta la podéis leer aquí (120 páginas). Dicha propuesta surge de las conclusiones emitidas el 28 de junio de 2018 por el Consejo Europeo (otro link aquí), en particular, en lo dispuesto en el apartado dedicado a la innovación y cuestiones digitales.

El Consejo consideró que, para construir una economía de datos europea en el marco del Mercado Único Digital, se debía mejorar la eficiencia de la utilización de los datos en toda la Unión Europea. Para ello veía necesario una aplicación efectiva del Reglamento General de Protección de Datos velando por su cumplimento y así generar una mayor confianza. Asimismo, el Consejo expresaba que “contar con datos de alta calidad es fundamental para el desarrollo de la inteligencia artificial”.  Por ello, invitaba a la Comisión a que trabajara junto con los Estados miembros en un plan coordinado sobre la IA.

De este modo la Comisión redacta la propuesta en arras reconociendo la abrumadora cantidad de beneficios que brinda la IA, pero a la vez siendo consciente de que determinados sistemas de IA pueden suponer un peligro para la sociedad europea.  Es por ello que establece unas líneas rojas:

  • La Carta de Derechos Fundamentales de la Unión Europea
  • La seguridad de los ciudadanos

Para garantizar estos extremos y, por ende, generar una seguridad jurídica que anime a las empresas a que adopten y desarrollen estas tecnologías, la Comisión crea un marco normativo que clasifica los usos de la IA en 4 niveles basándose en el riesgo de que estos transgredan los citados límites. Dichos niveles son:

  • Riesgo inadmisible: Se recogen en el Título II (meter link), aquí entraría un conjunto muy limitado de usos que deberán prohibirse por traspasar las líneas rojas. Entre dichos usos, la Comisión pone como ejemplo el uso de técnicas subliminales, la explotación de los puntos débiles de los niños, el sistema de puntuación social por parte de los gobiernos -en clara referencia al sistema de crédito social chino por el cual, a través de Big Data, el gobierno califica el civismo de los usuarios y empresas y la confianza que merecen- y determinados sistemas de identificación biométrica remota y en directo en espacios públicos con fines policiales, aunque permite la inclusión futura de ciertas excepciones.
  • Alto riesgo: Se recogen el Título III (meter link) un número limitado de sistemas de IA que la Comisión ha recogido en una lista cerrada, si bien deja la puerta abierta a que la misma se amplíe según evolucione la tecnología y los usos de la misma. En esta categoría entran determinados usos que, aun siendo importantes para la sociedad y el comercio, pueden fácilmente amenazar los derechos fundamentales y la seguridad ciudadana. Ello en base a las funciones que lleven a cabo, la finalidad y las modalidades para las que se prevé su uso. Por esta razón, la Comisión propone que cumplan con ciertos requisitos, como un control previo a su puesta en funcionamiento, así como un control de la calidad de los conjuntos de datos utilizados para el entrenamiento del sistema, así como un sistema de gestión de riesgos, contar con una documentación técnica, llevar a cabo un registro de actividad, ser transparentes con sus usuarios, ser supervisados por personas y contar con un buen sistema de ciberseguridad.
  • Riesgo limitado: En especial se incluyen usos a través de los cuales se genere o manipule contenido de imagen, sonido o vídeo pudiendo inducir al usuario o espectador a creer que el contenido mostrado sea completamente auténtico o verídico. En estos casos, se impone la obligación de informar al público que dicho contenido ha sido manipulado o generado de forma artificial.
  • Riesgo mínimo: Aquí entrarían la mayoría de usos de IA que existen en la actualidad y que funcionan en conformidad con la legislación vigente. Sin embargo, muchos de ellos ya se someten a controles y aplican códigos de conducta en consonancia con las directrices éticas para una IA fiable que elaboró en 2019 un grupo de expertos.

Asimismo, la Comisión propone la creación del Comité Europeo de Inteligencia Artificial. Esta institución estaría conformada por representantes de las autoridades de supervisión de cada estado miembro, el Supervisor Europeo de Protección de Datos y la Comisión. Estaría dedicada a facilitar la cooperación entre los Estados miembros para la aplicación coherente del Reglamento sobre la IA, a formular informes, recomendaciones y dictámenes para la Comisión relativos a los sistemas de IA, así como a recopilar y compartir los conocimientos técnicos y buenas prácticas entre los países.

Por último, mencionar la creación de espacios controlados de pruebas de sistema de IA. Estos espacios estarían establecidos por las autoridades competentes de uno o varios Estados miembros o por el Supervisor Europeo de Protección de Datos. En definitiva, se trataría de entornos donde, previa a su introducción en el mercado, las empresas puedan ensayar nuevos sistemas de IA apoyándose en bases, pero siempre bajo la supervisión de las autoridades competentes.