www.canariasdiario.com
Anteproyecto de ley para regular el uso ético de la Inteligencia Artificial
Ampliar

Anteproyecto de ley para regular el uso ético de la Inteligencia Artificial

Por Redacción
miércoles 12 de marzo de 2025, 00:52h

El Gobierno de España ha aprobado un anteproyecto de ley para regular el uso ético, inclusivo y beneficioso de la Inteligencia Artificial (IA), adaptando la legislación nacional al reglamento europeo vigente. Este nuevo marco normativo busca fomentar la innovación mientras se establecen medidas de control para mitigar riesgos asociados a la IA. La ley prohíbe prácticas maliciosas y establece sanciones severas por incumplimientos, como el uso de técnicas subliminales o la clasificación biométrica discriminatoria. Además, se crearán entornos controlados de pruebas para facilitar el desarrollo seguro de sistemas de IA. La tramitación del anteproyecto se realizará con carácter urgente antes de su aprobación definitiva en las Cortes.

El Gobierno ha aprobado el anteproyecto de ley que regulará el uso de la Inteligencia Artificial (IA) en España, con el objetivo de asegurar un enfoque ético, inclusivo y beneficioso para la sociedad. Esta nueva normativa se alineará con el reglamento europeo de IA, ya en vigor, y busca combinar un marco regulador con el fomento de la innovación.

Óscar López, ministro para la Transformación Digital y de la Función Pública, enfatizó en una rueda de prensa posterior al Consejo de Ministros que “la IA es una herramienta muy poderosa”, capaz tanto de mejorar vidas como de amenazar principios democráticos. Destacó la necesidad urgente de establecer una gobernanza adecuada para su uso.

Tramitación y objetivos del anteproyecto

Este anteproyecto será tramitado por vía de urgencia y deberá seguir los trámites necesarios antes de ser presentado nuevamente al Consejo de Ministros para su aprobación definitiva y posterior envío a las Cortes.

El reglamento europeo establece un marco legal común para el desarrollo y uso de sistemas de IA, prohibiendo usos maliciosos y estableciendo obligaciones más estrictas para sistemas considerados de alto riesgo. Además, introduce un derecho digital que permite retirar provisionalmente del mercado español aquellos sistemas que hayan causado incidentes graves.

Prácticas prohibidas y sanciones

A partir del 2 de febrero de 2025, entraron en vigor las prácticas prohibidas que pueden ser sancionadas desde el 2 de agosto del mismo año. Las multas pueden oscilar entre los 7.5 millones y los 35 millones de euros o entre el 2% y el 7% del volumen global del negocio del ejercicio anterior.

Entre las prácticas prohibidas se encuentran:

  • Uso de técnicas subliminales para manipular decisiones sin consentimiento.
  • Explotación de vulnerabilidades relacionadas con la edad o situación socioeconómica.
  • Clasificación biométrica por raza u orientación política o sexual.
  • Puntuación social que afecte a la concesión de subvenciones o préstamos.
  • Inferencia emocional en entornos laborales o educativos sin justificación médica o de seguridad.

Sistemas considerados de alto riesgo

Los sistemas clasificados como altos riesgos incluyen aquellos utilizados en productos industriales, juguetes, servicios esenciales y administración pública. Estos deberán cumplir con múltiples requisitos como gestión de riesgos, supervisión humana y transparencia en la documentación técnica.

Cualquier incumplimiento puede resultar en sanciones severas; por ejemplo, no comunicar incidentes graves puede acarrear multas entre 7.5 millones y 15 millones de euros.

Fomento a la innovación

A partir del 2 de agosto de 2026, se exigirá a los países miembros establecer al menos un entorno controlado (sandbox) para fomentar la innovación en IA. España ha anticipado este requisito lanzando una convocatoria en diciembre pasado para seleccionar hasta doce sistemas innovadores que participarán en pruebas controladas durante un año.

La experiencia adquirida servirá para desarrollar guías técnicas sobre el cumplimiento normativo aplicable a estos sistemas avanzados.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios