IA de vigilancia en el trabajo: lo que el AI Act prohíbe realmente.
Desde el 2 de febrero de 2025, analizar las emociones de los empleados está prohibido. Pero la vigilancia de la productividad sigue siendo una zona gris. ¿Qué herramientas están afectadas? ¿Qué riesgos corren los empleadores?

Lo que el AI Act prohíbe desde el 2 de febrero de 2025
El Artículo 5 del AI Act prohíbe explícitamente la inferencia de emociones en el lugar de trabajo. Una medida en vigor desde hace más de un año, pero cuyos contornos siguen siendo confusos para muchas empresas.
El Artículo 5(1)(f) del Reglamento europeo prohíbe la introducción en el mercado, la puesta en servicio o el uso de sistemas de IA diseñados para inferir las emociones de una persona física en el contexto profesional. Esta prohibición abarca varias prácticas:
- Análisis de microexpresiones faciales mediante cámara o vídeo.
- Detección del estrés o la fatiga mediante reconocimiento vocal.
- Evaluación del compromiso en reuniones a través de la entonación o los movimientos oculares.
- Cualquier herramienta que utilice sensores biométricos para deducir un estado emocional.
Las excepciones son raras y están estrictamente enmarcadas. Se refieren principalmente a usos médicos o de seguridad, como la detección de somnolencia en conductores profesionales. Para el resto, la prohibición es absoluta.
Herramientas del mercado: ¿quién está afectado por la prohibición?
Varias herramientas populares integran funcionalidades de análisis emocional. Su estatus bajo el AI Act es ahora crítico para los empleadores.
A continuación, una lista no exhaustiva de herramientas afectadas por la prohibición del Artículo 5:
Los proveedores de estas herramientas tienen hasta el 2 de noviembre de 2026 para cumplir con las obligaciones de transparencia del Artículo 50, pero la prohibición del Artículo 5 ya se aplica. Los empleadores que utilicen estas soluciones se exponen a sanciones que pueden alcanzar los 35 millones de euros o el 7% de su facturación mundial.
La zona gris de la vigilancia de la productividad
El AI Act no prohíbe la vigilancia de la productividad, pero puede convertirse en de alto riesgo según las modalidades. Explicaciones.
Las herramientas de vigilancia de la productividad no están prohibidas por el Artículo 5, pero pueden ser clasificadas como de alto riesgo si entran en el ámbito del Anexo III. Este anexo cubre, en particular:
- Los sistemas de IA utilizados para la gestión del trabajo y el acceso al empleo (punto 4 del Anexo III).
- Las herramientas que crean perfiles conductuales de los empleados.
- Las soluciones que evalúan el rendimiento de manera automatizada.
A continuación, algunas herramientas del mercado y su posible estatus bajo el AI Act:
Para estas herramientas, la clasificación depende del uso concreto. Un seguimiento básico del tiempo dedicado a una tarea puede seguir siendo de bajo riesgo, mientras que una evaluación automatizada del rendimiento se convierte en de alto riesgo. Los empleadores deben documentar sus usos y evaluar los riesgos caso por caso.
RGPD: el segundo marco a respetar para la vigilancia de los empleados
El AI Act no sustituye al RGPD. Los empleadores deben cumplir con ambas regulaciones, so pena de sanciones acumuladas.
La vigilancia de los empleados ya está regulada por el RGPD, en particular mediante:
- El principio de minimización de datos (Artículo 5(1)(c)).
- El derecho a la información de los empleados (Artículos 13 y 14).
- La obligación de realizar un análisis de impacto (EIPD) para los tratamientos de alto riesgo (Artículo 35).
- La consulta obligatoria a los representantes del personal (CSE) para los dispositivos de vigilancia (Artículo L. 2312-38 del Código de Trabajo).
La AEPD ha publicado recomendaciones específicas sobre la vigilancia de los empleados en teletrabajo. Recuerda que las herramientas de vigilancia deben ser proporcionadas y transparentes. Por ejemplo:
- Las capturas de pantalla aleatorias están permitidas si están justificadas y limitadas.
- El seguimiento en tiempo real de la actividad de teclado/ratón se considera intrusivo y debe evitarse.
- Los empleados deben ser informados de los dispositivos de vigilancia y de sus finalidades.
La sentencia Barbulescu II del TJUE (2017) ya estableció límites estrictos a la vigilancia de las comunicaciones de los empleados. El AI Act refuerza este marco prohibiendo ciertas prácticas y clasificando otras como de alto riesgo.
¿Cómo cumplir con el AI Act y el RGPD?
Los empleadores deben actuar en varios frentes para evitar sanciones y proteger los derechos de sus empleados.
A continuación, una lista de verificación para cumplir con la normativa:
- Auditores las herramientas utilizadas: Identificar todas las herramientas de IA empleadas para la vigilancia o evaluación de los empleados. Verificar si entran en el ámbito del Artículo 5 o del Anexo III del AI Act.
- Clasificar los sistemas de IA: Para cada herramienta, determinar si está prohibida, es de alto riesgo o de bajo riesgo. Documentar esta clasificación.
- Respetar las obligaciones del RGPD: Informar a los empleados sobre los dispositivos de vigilancia, realizar un análisis de impacto si es necesario y consultar al CSE.
- Adaptar los usos: Desactivar las funcionalidades prohibidas (análisis emocional) y limitar los usos de alto riesgo a los casos estrictamente necesarios.
- Formar a los equipos: Sensibilizar a los directivos y a los departamentos de RRHH sobre los límites legales de la vigilancia. Formar a los empleados sobre sus derechos.
- Documentar la conformidad: Mantener un registro de los tratamientos de IA, conservar las pruebas de conformidad y preparar las respuestas en caso de inspección.
Los empleadores pueden apoyarse en las directrices de la Oficina de IA y en las recomendaciones de la AEPD para guiar su proceso. En caso de duda, un diagnóstico de conformidad permite identificar los riesgos específicos de una organización.
¿Utiliza su empresa herramientas de IA para la vigilancia?
Identifique sus obligaciones bajo el AI Act y el RGPD en 3 minutos con nuestro diagnóstico gratuito.
Preguntas frecuentes
Respuestas a las preguntas más comunes sobre la IA de vigilancia en el trabajo y el AI Act.
La inferencia de emociones consiste en utilizar sistemas de IA para deducir el estado emocional de un empleado a partir de datos biométricos o conductuales. Esto incluye el análisis de expresiones faciales, la entonación vocal, los movimientos oculares u otros señales fisiológicas. Por ejemplo, una herramienta que evalúa el nivel de estrés de un trabajador analizando su voz durante una reunión utiliza la inferencia de emociones.
La prohibición se basa en varios principios fundamentales. En primer lugar, la inferencia de emociones vulnera el derecho a la intimidad y la dignidad de los empleados. Además, estas tecnologías suelen ser poco fiables y pueden dar lugar a discriminaciones o evaluaciones sesgadas. Por último, Europa considera que el lugar de trabajo no debe convertirse en un espacio de vigilancia intrusiva, donde las emociones de los empleados sean constantemente analizadas y utilizadas para tomar decisiones sobre ellos.
Las sanciones por el uso de un sistema prohibido por el Artículo 5 del AI Act pueden alcanzar los 35 millones de euros o el 7% de la facturación mundial de la empresa, según la cantidad más alta. Además de las multas, la empresa se expone a riesgos reputacionales significativos, así como a acciones legales por parte de los empleados o los sindicatos. Por último, las herramientas no conformes pueden ser retiradas del mercado, lo que provocaría perturbaciones operativas.
No, las herramientas de vigilancia de la productividad no están prohibidas por el Artículo 5 del AI Act, salvo si integran funcionalidades de inferencia de emociones. Sin embargo, según las modalidades de uso, estas herramientas pueden ser clasificadas como de alto riesgo en virtud del Anexo III. Por ejemplo, una herramienta que evalúa automáticamente el rendimiento de los empleados e influye en las decisiones de RRHH (promociones, despidos) probablemente será considerada de alto riesgo y estará sujeta a obligaciones estrictas.
El RGPD impone varias obligaciones a los empleadores que vigilan a sus empleados. En primer lugar, deben informar a los empleados sobre los dispositivos de vigilancia y sus finalidades. A continuación, deben respetar el principio de minimización de datos, limitando la recogida a la información estrictamente necesaria. Un análisis de impacto (EIPD) es obligatorio para los tratamientos de alto riesgo. Por último, los representantes del personal (CSE) deben ser consultados antes de la implantación de cualquier dispositivo de vigilancia.
