El AI Act prohíbe ciertos usos de la IA desde febrero de 2025. Scoring social, manipulación, reconocimiento de emociones: el panorama completo.
Antes incluso de abordar los sistemas de alto riesgo, las obligaciones de transparencia o la competencia en IA, el Reglamento Europeo sobre Inteligencia Artificial (Reglamento 2024/1689) traza líneas rojas absolutas. El Artículo 5 enumera las prácticas de IA pura y simplemente prohibidas en la Unión Europea.
Estas prohibiciones están en vigor desde el 1 de febrero de 2025. No son plazos futuros: se aplican ahora.
Artículo 5, apartado 1 — Règlement (UE) 2024/1689
Quedan prohibidas las siguientes prácticas en materia de inteligencia artificial: […] la introducción en el mercado, la puesta en servicio o la utilización de un sistema de IA que despliegue técnicas subliminales […] o técnicas deliberadamente manipuladoras o engañosas con el objetivo o el efecto de alterar sustancialmente el comportamiento de una persona […] de una manera que cause o sea razonablemente probable que cause un perjuicio significativo a esa persona o a otra.
El AI Act prohíbe los sistemas que evalúan o clasifican a las personas físicas sobre la base de su comportamiento social o de características personales, cuando esa puntuación conduce a un trato desfavorable en contextos sin relación con la recogida de datos, o desproporcionado respecto al comportamiento en cuestión.
Atención: contrariamente a lo que se suele creer, esta prohibición no se dirige únicamente a los gobiernos. Se aplica también a los actores privados. Una empresa que construyera un “score de fiabilidad” de sus clientes agregando datos de pago, comportamiento online e interacciones con el servicio de atención al cliente — y utilizara esa puntuación para denegar servicios — estaría infringiendo la norma.
Ejemplos concretos de usos ahora ilegales:
Todo sistema de IA diseñado para alterar el comportamiento de una persona sin su conocimiento está prohibido. Esto cubre las técnicas subliminales (estímulos imperceptibles para la conciencia) y las técnicas deliberadamente manipuladoras o engañosas.
Ejemplos:
Los sistemas de IA que explotan vulnerabilidades vinculadas a la edad, la discapacidad o la situación social o económica de una persona para alterar sustancialmente su comportamiento están prohibidos.
Ejemplos:
El uso de sistemas de identificación biométrica a distancia “en tiempo real” en espacios accesibles al público con fines de aplicación de la ley está prohibido, con tres excepciones estrictamente acotadas:
Incluso en estos casos, el uso requiere autorización judicial previa y está sujeto a garantías estrictas.
Artículo 5, apartado 1, letra f — Règlement (UE) 2024/1689
[Queda prohibida] la introducción en el mercado, la puesta en servicio o la utilización de sistemas de IA para inferir las emociones de una persona física en el lugar de trabajo y en los centros educativos, salvo cuando la utilización del sistema de IA esté destinada a implantarse o comercializarse por razones médicas o de seguridad.
Esta prohibición es particularmente relevante para las empresas. Cubre:
Las únicas excepciones: usos con finalidad médica (detección de dolor en pacientes no comunicativos, por ejemplo) o de seguridad (detección de fatiga en conductores profesionales).
El AI Act prohíbe la creación o ampliación de bases de datos de reconocimiento facial mediante la recopilación no selectiva de imágenes de internet o de videovigilancia. Es una respuesta directa a las prácticas de empresas como Clearview AI, que había construido una base de varios miles de millones de rostros recogiendo fotos públicas.
📄Riesgos de la IA en la empresa: identificar y gestionar eficazmente→La mayoría de las empresas piensan espontáneamente que estas prohibiciones no les afectan. Pero ciertos usos, especialmente en RRHH y marketing, pueden acercarse peligrosamente.
Hágase estas preguntas:
Si la respuesta a alguna de estas preguntas es “sí” o “quizás”, se impone un análisis en profundidad.
El conocimiento de estas prohibiciones por parte de los colaboradores es esencial. La obligación de competencia en IA (Artículo 4) incluye necesariamente la comprensión de lo que está prohibido. Un colaborador que no sepa que es ilegal utilizar el reconocimiento de emociones en contexto profesional no puede denunciar un uso no conforme.
La formación de los equipos sobre estas prohibiciones no es opcional — es una condición previa para cualquier gobernanza de IA responsable. La AEPD y la Secretaría de Estado de Digitalización han subrayado que las organizaciones deben capacitar a su personal para identificar y reportar usos no conformes de la IA.
📄AI Act Artículo 4: la obligación de formación en IA explicada→Las prácticas prohibidas están sujetas al nivel más alto de sanciones del AI Act: hasta 35 millones de euros o el 7 % de la facturación anual mundial, prevaleciendo el importe más elevado. Son las multas más severas jamás previstas por una regulación digital europea — más elevadas que las del RGPD.
Ce que ça implique pour vous
Las prohibiciones del Artículo 5 están en vigor desde el 1 de febrero de 2025. Scoring social, manipulación mediante IA, reconocimiento de emociones en el trabajo: estas prácticas son ahora ilegales, con sanciones de hasta 35 millones de euros. El reto para las empresas es doble: verificar de inmediato que ninguna herramienta de IA en uso cruza estas líneas rojas, y formar a los equipos para reconocer los usos prohibidos antes de que se produzca un incidente.