El Gobierno de España ha aprobado un anteproyecto de ley para regular el uso ético, inclusivo y beneficioso de la Inteligencia Artificial (IA), adaptándose al reglamento europeo ya vigente. Este marco legal busca fomentar la innovación mientras establece medidas para prevenir usos maliciosos de la IA. La ley introduce sanciones significativas para prácticas prohibidas, como la manipulación subliminal y la clasificación biométrica discriminatoria. Además, se crearán entornos controlados de pruebas para facilitar el desarrollo de sistemas innovadores de IA. Esta iniciativa posiciona a España como líder en la regulación de tecnologías emergentes en Europa.
El Gobierno español ha dado un paso significativo al aprobar el anteproyecto de ley que regula la gobernanza de la Inteligencia Artificial (IA), con el objetivo de asegurar un uso ético, inclusivo y beneficioso para la sociedad. Esta normativa se alinea con el reglamento europeo de IA, que ya está en vigor, y busca combinar un enfoque regulador con el fomento de la innovación.
Durante una rueda de prensa posterior al Consejo de Ministros, el ministro para la Transformación Digital y de la Función Pública, Óscar López, subrayó la dualidad del potencial de la IA: “Es una herramienta muy poderosa que puede mejorar nuestras vidas o amenazar nuestra democracia”. López enfatizó la importancia de su correcta gestión para evitar usos perjudiciales.
El anteproyecto será tramitado por vía urgente y seguirá los procedimientos necesarios antes de ser presentado nuevamente al Consejo de Ministros para su aprobación definitiva como proyecto de ley. La iniciativa tiene como meta establecer un marco legal común en la Unión Europea que regule el desarrollo y uso de sistemas de IA, prohibiendo prácticas maliciosas y estableciendo obligaciones más estrictas para aquellos considerados de alto riesgo.
Entre las medidas incluidas se encuentra un nuevo derecho digital que permite a las autoridades retirar provisionalmente del mercado español sistemas de IA que hayan causado incidentes graves, incluyendo fatalidades.
A partir del 2 de febrero de 2025, entraron en vigor varias prácticas prohibidas relacionadas con la IA. Desde el 2 de agosto del mismo año, estas podrán ser sancionadas mediante multas u otras medidas correctivas. Ejemplos claros incluyen:
Las sanciones por incumplimiento pueden oscilar entre 7,5 millones y 35 millones de euros, o entre el 2% y el 7% del volumen global del negocio anterior, dependiendo cual sea mayor. Las autoridades responsables incluirán la Agencia Española de Protección de Datos y otros organismos especializados según el ámbito afectado.
Los sistemas clasificados como de alto riesgo, según el reglamento europeo, abarcan desde productos industriales hasta aplicaciones en educación y justicia. Estos sistemas deberán cumplir con requisitos rigurosos que incluyen gestión adecuada del riesgo, supervisión humana y transparencia en sus operaciones.
Cualquier infracción grave podría resultar en sanciones severas. Por ejemplo, no informar sobre un incidente grave podría acarrear multas entre 7,5 millones y 15 millones de euros.
A partir del 2 de agosto de 2026, se espera que los países miembros establezcan al menos un entorno controlado para pruebas (sandbox) que fomente la innovación en IA. España ha tomado la delantera al lanzar una convocatoria para seleccionar hasta doce sistemas innovadores que participarán durante un año en este entorno regulado.
Esta experiencia servirá como base para elaborar guías técnicas sobre cómo cumplir con los requisitos establecidos para los sistemas considerados de alto riesgo.
Descripción | Cifra |
---|---|
Sanciones (en euros) | 7.5 - 35 millones |
Porcentaje de sanciones (volumen de negocio mundial) | 2% - 7% |
Sanciones por infracciones graves (en euros) | 500,000 - 7.5 millones |
Porcentaje de sanciones en infracciones graves (volumen de negocio mundial) | 1% - 2% |
El anteproyecto de ley busca garantizar un uso ético, inclusivo y beneficioso de la Inteligencia Artificial, adaptando la legislación española al reglamento europeo ya en vigor.
Las prácticas prohibidas incluyen el uso de técnicas subliminales para manipular decisiones sin consentimiento, la explotación de vulnerabilidades por edad o situación socioeconómica, la clasificación biométrica por raza u orientación política, y la inferencia de emociones en entornos laborales o educativos.
Las sanciones oscilarán entre 7,5 y 35 millones de euros o entre el 2% y el 7% del volumen de negocio mundial del ejercicio anterior, dependiendo de la gravedad de la infracción.
Los sistemas de alto riesgo incluyen aquellos que afectan a productos industriales, servicios esenciales como educación y salud, así como sistemas utilizados en administración de justicia y control fronterizo.
A partir del 2 de agosto de 2026, se establecerá al menos un sandbox de IA para fomentar la innovación y facilitar pruebas y validaciones antes de la comercialización. España ya ha iniciado un entorno controlado para probar sistemas de alto riesgo.