El Gobierno de España ha aprobado un anteproyecto de ley para regular el uso ético e inclusivo de la Inteligencia Artificial (IA), alineándose con el reglamento europeo ya en vigor. Este marco legal busca fomentar la innovación mientras se establecen controles para evitar usos maliciosos de la IA. La legislación incluye sanciones severas para prácticas prohibidas, como la manipulación subliminal y la clasificación biométrica discriminatoria. Además, se implementará un entorno controlado de pruebas para sistemas de alto riesgo, promoviendo así un desarrollo responsable de la tecnología. Esta iniciativa posiciona a España como líder en la regulación de la IA en Europa.
El Gobierno ha aprobado el anteproyecto de ley que regula la gobernanza de la Inteligencia Artificial (IA) en España, con el objetivo de asegurar un uso ético, inclusivo y beneficioso para la sociedad. Este marco normativo se alinea con el reglamento europeo de IA, que ya está en vigor, y combina un enfoque regulador con el fomento de la innovación.
Durante una rueda de prensa posterior al Consejo de Ministros, el ministro para la Transformación Digital y de la Función Pública, Óscar López, subrayó la importancia del buen uso y gobernanza de la IA. “La IA es una herramienta muy poderosa que puede mejorar nuestras vidas o amenazar nuestra democracia”, afirmó López. Destacó que su aplicación puede ser tanto positiva, como en investigaciones médicas, como negativa, al difundir desinformación y odio.
El anteproyecto será tramitado por vía de urgencia antes de regresar al Consejo de Ministros para su aprobación definitiva y posterior envío a las Cortes. El reglamento establece un marco legal común en la Unión Europea para el desarrollo y uso de sistemas de IA, prohibiendo usos maliciosos y estableciendo obligaciones más estrictas para sistemas considerados de alto riesgo.
Entre las novedades se incluye un derecho digital que permite a las autoridades retirar provisionalmente del mercado español sistemas de IA que hayan causado incidentes graves. Las prácticas prohibidas entraron en vigor el 2 de febrero de 2025 y podrán ser sancionadas desde agosto del mismo año.
Las multas por incumplimiento oscilan entre los 7,5 millones y los 35 millones de euros o entre el 2% y el 7% del volumen de negocio mundial del ejercicio anterior. Las autoridades encargadas de supervisar estas infracciones incluyen la Agencia Española de Protección de Datos, el Consejo General del Poder Judicial y la Junta Electoral Central.
Las prácticas prohibidas abarcan desde técnicas subliminales para manipular decisiones hasta la clasificación biométrica basada en características personales. Por ejemplo, se prohíbe utilizar IA para alterar comportamientos vulnerables o evaluar emociones en entornos laborales sin justificación médica.
Los sistemas considerados de alto riesgo incluyen aquellos relacionados con seguridad industrial, educación, empleo y administración pública. Estos deberán cumplir estrictas obligaciones como gestión de riesgos, supervisión humana y transparencia. La falta de cumplimiento puede resultar en sanciones severas dependiendo del tipo e impacto del incumplimiento.
A partir del 2 de agosto de 2026, todos los países miembros deben establecer al menos un entorno controlado para fomentar la innovación en IA. España ha tomado la iniciativa con una convocatoria lanzada en diciembre pasado para seleccionar hasta 12 sistemas innovadores que participarán en este entorno durante un año.
Concepto | Cifra |
---|---|
Sanciones por prácticas prohibidas (en euros) | 7,5 - 35 millones |
% del volumen de negocio mundial (sanciones) | 2% - 7% |
Sanciones por infracciones muy graves (en euros) | 7,5 - 15 millones |
% del volumen de negocio mundial (infracciones muy graves) | 2% - 3% |
El anteproyecto de ley busca garantizar un uso ético, inclusivo y beneficioso de la Inteligencia Artificial, adaptando la legislación española al reglamento europeo de IA.
Las prácticas prohibidas incluyen el uso de técnicas subliminales para manipular decisiones sin consentimiento, la explotación de vulnerabilidades por edad o situación socioeconómica, y la clasificación biométrica de personas basándose en su raza u orientación política, entre otras.
Las sanciones pueden oscilar entre 7,5 y 35 millones de euros o entre el 2% y el 7% del volumen de negocio mundial del ejercicio anterior, dependiendo de la gravedad de la infracción.
Los sistemas de IA de alto riesgo incluyen aquellos que se utilizan en productos industriales, servicios esenciales como salud y educación, y en procesos democráticos y judiciales.
A partir del 2 de agosto de 2026, se establecerán sandboxes (entornos controlados) para fomentar la innovación y facilitar pruebas antes de la comercialización de sistemas innovadores de IA.