El Gobierno de España ha aprobado hoy el anteproyecto de ley de gobernanza de la Inteligencia Artificial (IA), una normativa que busca garantizar un uso ético, inclusivo y beneficioso de la IA, alineado con el Reglamento Europeo de IA ya en vigor. Este marco regulador tiene como objetivo impulsar la innovación mientras protege los derechos fundamentales y refuerza la seguridad en el desarrollo y aplicación de la IA.
El anteproyecto de ley, que se tramitará por la vía de urgencia, deberá completar los trámites preceptivos antes de su aprobación definitiva y envío a las Cortes Generales. En ese caso, entraría en vigor para complementar las medidas recogidas en el Reglamento de Inteligencia Artificial europeo
El reglamento europeo establece un marco común para el desarrollo, comercialización y uso de sistemas de IA en la UE, prohibiendo determinados usos maliciosos, imponiendo obligaciones más estrictas a los sistemas de alto riesgo y exigiendo requisitos de transparencia. Además, se introduce un nuevo derecho digital que permite a la autoridad de vigilancia competente retirar provisionalmente del mercado sistemas de IA que hayan provocado incidentes graves, como la muerte de una persona.
Dentro de este Reglamento se recogen las prácticas prohibidas, las cuales entraron en vigor el 2 de febrero de 2025 y desde el 2 de agosto de 2025 se podrán sancionar mediante multas u otras medidas adicionales aplicando el régimen sancionador que incorpora el anteproyecto de ley, dentro de las horquillas que fija el Reglamento europeo.
Las autoridades encargadas de vigilar los sistemas prohibidos serán:
- La Agencia Española de Protección de Datos (para sistemas biométricos y gestión de fronteras).
- El Consejo General del Poder Judicial (para sistemas de IA en el ámbito de la justicia).
- La Junta Electoral Central (para sistemas que IA que afecten a procesos democráticos).
- La Agencia Española de Supervisión de la Inteligencia Artificial (en el resto de los casos).
En el caso concreto de los sistemas de IA de alto riesgo, las autoridades encargadas de vigilarlos serán las que por defecto ya estén supervisando al sector afectado cuando se trate de productos sujetos a legislación armonizada.
También serán competentes la Agencia Española de Protección de Datos (para sistemas de gestión de migraciones y asilo asociados a las Fuerzas y Cuerpos de Seguridad del Estado); el CGPJ para sistemas de IA en administración de justicia y la Junta Electoral Central (para sistemas de procesos electorales); el Banco de España (para sistemas de clasificación de solvencia crediticia); la Dirección General de Seguros (para sistemas de seguros) y la CNMV (para sistemas de mercados de capitales).
A partir del 2 de agosto de 2026, el Reglamento también obligará a los países miembros a establecer al menos un sandbox de IA (entorno controlado de pruebas) que fomente la innovación y facilite el desarrollo, la formación, las pruebas y la validación de sistemas innovadores de IA durante un tiempo limitado antes de su comercialización o puesta en servicio, y de manera acordada entre los proveedores o posibles proveedores y la autoridad competente.
España se ha adelantado a este requisito con el lanzamiento en diciembre pasado de una convocatoria para seleccionar hasta un total de 12 sistemas de IA de alto riesgo que, durante un año, participarán en un entorno controlado de pruebas. La experiencia acumulada y las lecciones aprendidas servirán para publicar unas guías técnicas sobre el cumplimiento de los requisitos aplicables a los sistemas de alto riesgo.
La presentación de medidas IA pueden verse en el siguiente enlace: Medidas IA