Pruebe todas las funcionalidades gratis — 3 créditos incluidos al registrarseProbar gratis
Ir al contenido principal
Reglamentación · Conformidad AI Act

IA de vigilancia en el trabajo: lo que el AI Act prohíbe realmente.

Desde el 2 de febrero de 2025, analizar las emociones de los empleados está prohibido. Pero la vigilancia de la productividad sigue siendo una zona gris. ¿Qué herramientas están afectadas? ¿Qué riesgos corren los empleadores?

Jérémy Pierre
Jérémy Pierre
Experto conformidad AI Act
6 mayo 2026 8 min de lectura
IA de vigilancia en el trabajo: lo que el AI Act prohíbe realmente desde 2025
En breve · 4 cifras a recordar
2 febrero 2025
Prohibición de la inferencia de emociones en el trabajo
35 M€
Sanción máxima por uso de un sistema prohibido
Anexo III
Vigilancia de productividad potencialmente de alto riesgo
RGPD + AI Act
Doble marco jurídico para la vigilancia de los empleados
01 - Reglamentación

Lo que el AI Act prohíbe desde el 2 de febrero de 2025

El Artículo 5 del AI Act prohíbe explícitamente la inferencia de emociones en el lugar de trabajo. Una medida en vigor desde hace más de un año, pero cuyos contornos siguen siendo confusos para muchas empresas.

El Artículo 5(1)(f) del Reglamento europeo prohíbe la introducción en el mercado, la puesta en servicio o el uso de sistemas de IA diseñados para inferir las emociones de una persona física en el contexto profesional. Esta prohibición abarca varias prácticas:

  • Análisis de microexpresiones faciales mediante cámara o vídeo.
  • Detección del estrés o la fatiga mediante reconocimiento vocal.
  • Evaluación del compromiso en reuniones a través de la entonación o los movimientos oculares.
  • Cualquier herramienta que utilice sensores biométricos para deducir un estado emocional.

Las excepciones son raras y están estrictamente enmarcadas. Se refieren principalmente a usos médicos o de seguridad, como la detección de somnolencia en conductores profesionales. Para el resto, la prohibición es absoluta.

"La inferencia de emociones en el trabajo no es solo una cuestión de conformidad. Es una línea roja ética y jurídica que Europa ha trazado para proteger los derechos fundamentales de los empleados."
02 - Herramientas del mercado

Herramientas del mercado: ¿quién está afectado por la prohibición?

Varias herramientas populares integran funcionalidades de análisis emocional. Su estatus bajo el AI Act es ahora crítico para los empleadores.

A continuación, una lista no exhaustiva de herramientas afectadas por la prohibición del Artículo 5:

HireVue
Análisis de vídeo de los candidatos para evaluar su adecuación al puesto, incluyendo la detección de emociones mediante expresiones faciales.
Prohibido desde el 2 de febrero de 2025 para usos de RRHH en Europa.
Affectiva
Solución de análisis emocional basada en reconocimiento facial y vocal, utilizada en contextos de formación o evaluación.
Prohibido para usos profesionales en Europa.
Microsoft Teams (funcionalidades avanzadas)
Algunas funcionalidades experimentales analizan el compromiso de los participantes en reuniones mediante entonación vocal y movimientos oculares.
En evaluación por la Oficina de IA. Uso desaconsejado en el estado actual.
Otter.ai
Transcripción automática de reuniones con funcionalidades de análisis del tono y el compromiso.
En evaluación para usos profesionales en Europa.

Los proveedores de estas herramientas tienen hasta el 2 de noviembre de 2026 para cumplir con las obligaciones de transparencia del Artículo 50, pero la prohibición del Artículo 5 ya se aplica. Los empleadores que utilicen estas soluciones se exponen a sanciones que pueden alcanzar los 35 millones de euros o el 7% de su facturación mundial.

03 - Vigilancia de productividad

La zona gris de la vigilancia de la productividad

El AI Act no prohíbe la vigilancia de la productividad, pero puede convertirse en de alto riesgo según las modalidades. Explicaciones.

Las herramientas de vigilancia de la productividad no están prohibidas por el Artículo 5, pero pueden ser clasificadas como de alto riesgo si entran en el ámbito del Anexo III. Este anexo cubre, en particular:

  • Los sistemas de IA utilizados para la gestión del trabajo y el acceso al empleo (punto 4 del Anexo III).
  • Las herramientas que crean perfiles conductuales de los empleados.
  • Las soluciones que evalúan el rendimiento de manera automatizada.

A continuación, algunas herramientas del mercado y su posible estatus bajo el AI Act:

Time Doctor
Seguimiento del tiempo dedicado a las aplicaciones, capturas de pantalla aleatorias, análisis de la actividad de teclado/ratón.
Alto riesgo probable si se utiliza para evaluar el rendimiento.
Hubstaff
Seguimiento GPS, capturas de pantalla, monitorización de la actividad en tiempo real.
Alto riesgo probable para usos de RRHH.
ActivTrak
Análisis de los hábitos de trabajo, detección de distracciones, informes de actividad.
Alto riesgo probable si se utiliza para decisiones de RRHH.
Microsoft Viva Insights
Análisis de los hábitos de trabajo, recomendaciones para mejorar la productividad, integración con Teams y Outlook.
Estatus incierto, depende del uso y la configuración.

Para estas herramientas, la clasificación depende del uso concreto. Un seguimiento básico del tiempo dedicado a una tarea puede seguir siendo de bajo riesgo, mientras que una evaluación automatizada del rendimiento se convierte en de alto riesgo. Los empleadores deben documentar sus usos y evaluar los riesgos caso por caso.

04 - RGPD

RGPD: el segundo marco a respetar para la vigilancia de los empleados

El AI Act no sustituye al RGPD. Los empleadores deben cumplir con ambas regulaciones, so pena de sanciones acumuladas.

La vigilancia de los empleados ya está regulada por el RGPD, en particular mediante:

  • El principio de minimización de datos (Artículo 5(1)(c)).
  • El derecho a la información de los empleados (Artículos 13 y 14).
  • La obligación de realizar un análisis de impacto (EIPD) para los tratamientos de alto riesgo (Artículo 35).
  • La consulta obligatoria a los representantes del personal (CSE) para los dispositivos de vigilancia (Artículo L. 2312-38 del Código de Trabajo).

La AEPD ha publicado recomendaciones específicas sobre la vigilancia de los empleados en teletrabajo. Recuerda que las herramientas de vigilancia deben ser proporcionadas y transparentes. Por ejemplo:

  • Las capturas de pantalla aleatorias están permitidas si están justificadas y limitadas.
  • El seguimiento en tiempo real de la actividad de teclado/ratón se considera intrusivo y debe evitarse.
  • Los empleados deben ser informados de los dispositivos de vigilancia y de sus finalidades.

La sentencia Barbulescu II del TJUE (2017) ya estableció límites estrictos a la vigilancia de las comunicaciones de los empleados. El AI Act refuerza este marco prohibiendo ciertas prácticas y clasificando otras como de alto riesgo.

05 - Conformidad

¿Cómo cumplir con el AI Act y el RGPD?

Los empleadores deben actuar en varios frentes para evitar sanciones y proteger los derechos de sus empleados.

A continuación, una lista de verificación para cumplir con la normativa:

  1. Auditores las herramientas utilizadas: Identificar todas las herramientas de IA empleadas para la vigilancia o evaluación de los empleados. Verificar si entran en el ámbito del Artículo 5 o del Anexo III del AI Act.
  2. Clasificar los sistemas de IA: Para cada herramienta, determinar si está prohibida, es de alto riesgo o de bajo riesgo. Documentar esta clasificación.
  3. Respetar las obligaciones del RGPD: Informar a los empleados sobre los dispositivos de vigilancia, realizar un análisis de impacto si es necesario y consultar al CSE.
  4. Adaptar los usos: Desactivar las funcionalidades prohibidas (análisis emocional) y limitar los usos de alto riesgo a los casos estrictamente necesarios.
  5. Formar a los equipos: Sensibilizar a los directivos y a los departamentos de RRHH sobre los límites legales de la vigilancia. Formar a los empleados sobre sus derechos.
  6. Documentar la conformidad: Mantener un registro de los tratamientos de IA, conservar las pruebas de conformidad y preparar las respuestas en caso de inspección.

Los empleadores pueden apoyarse en las directrices de la Oficina de IA y en las recomendaciones de la AEPD para guiar su proceso. En caso de duda, un diagnóstico de conformidad permite identificar los riesgos específicos de una organización.

¿Utiliza su empresa herramientas de IA para la vigilancia?

Identifique sus obligaciones bajo el AI Act y el RGPD en 3 minutos con nuestro diagnóstico gratuito.

06 - FAQ

Preguntas frecuentes

Respuestas a las preguntas más comunes sobre la IA de vigilancia en el trabajo y el AI Act.

La inferencia de emociones consiste en utilizar sistemas de IA para deducir el estado emocional de un empleado a partir de datos biométricos o conductuales. Esto incluye el análisis de expresiones faciales, la entonación vocal, los movimientos oculares u otros señales fisiológicas. Por ejemplo, una herramienta que evalúa el nivel de estrés de un trabajador analizando su voz durante una reunión utiliza la inferencia de emociones.

La prohibición se basa en varios principios fundamentales. En primer lugar, la inferencia de emociones vulnera el derecho a la intimidad y la dignidad de los empleados. Además, estas tecnologías suelen ser poco fiables y pueden dar lugar a discriminaciones o evaluaciones sesgadas. Por último, Europa considera que el lugar de trabajo no debe convertirse en un espacio de vigilancia intrusiva, donde las emociones de los empleados sean constantemente analizadas y utilizadas para tomar decisiones sobre ellos.

Las sanciones por el uso de un sistema prohibido por el Artículo 5 del AI Act pueden alcanzar los 35 millones de euros o el 7% de la facturación mundial de la empresa, según la cantidad más alta. Además de las multas, la empresa se expone a riesgos reputacionales significativos, así como a acciones legales por parte de los empleados o los sindicatos. Por último, las herramientas no conformes pueden ser retiradas del mercado, lo que provocaría perturbaciones operativas.

No, las herramientas de vigilancia de la productividad no están prohibidas por el Artículo 5 del AI Act, salvo si integran funcionalidades de inferencia de emociones. Sin embargo, según las modalidades de uso, estas herramientas pueden ser clasificadas como de alto riesgo en virtud del Anexo III. Por ejemplo, una herramienta que evalúa automáticamente el rendimiento de los empleados e influye en las decisiones de RRHH (promociones, despidos) probablemente será considerada de alto riesgo y estará sujeta a obligaciones estrictas.

El RGPD impone varias obligaciones a los empleadores que vigilan a sus empleados. En primer lugar, deben informar a los empleados sobre los dispositivos de vigilancia y sus finalidades. A continuación, deben respetar el principio de minimización de datos, limitando la recogida a la información estrictamente necesaria. Un análisis de impacto (EIPD) es obligatorio para los tratamientos de alto riesgo. Por último, los representantes del personal (CSE) deben ser consultados antes de la implantación de cualquier dispositivo de vigilancia.

Jérémy Pierre
Jérémy Pierre
Fundador aiacto.eu · Experto conformidad AI Act

Acompaña a proveedores y responsables del despliegue de IA en su adaptación a la normativa.

Compartir este artículo