AI Act europeo y el registro horario

En esta guía desglosamos todas las claves de la AI Act y su aplicación en el control horario y los sistemas de fichaje.

¿Cómo clasifica el AI Act a los sistemas de fichaje y control horario?

Según el artículo 6 del AI Act, los sistemas de IA utilizados en el empleo, la gestión de trabajadores y el acceso al autoempleo se consideran Sistemas de Alto Riesgo. Esto aplica a cualquier herramienta de control horario que:

  • Monitorice o evalúe el comportamiento de los trabajadores basándose en sus registros de entrada, salida o pausas.
  • Realice análisis predictivos sobre la puntualidad o el absentismo para influir en decisiones contractuales.
  • Se utilice para asignar turnos de forma automatizada basándose en el rendimiento histórico captado por el software.

Sobre los sistemas de IA de alto riesgo

Requisitos de los sistemas

Gobernanzas de datos y ciberseguridad

Si el software de control horario usa IA para gestionar personas, debe cumplir el artículo 10 del AI Act, que exige una gobernanza de datos estricta para evitar sesgos discriminatorios.

Trazabilidad de los registros

Además, el artículo 12 obliga al sistema a permitir el registro automático de eventos (logs) durante todo su ciclo de vida para garantizar la trazabilidad de cada fichaje e incidencia.

Obligaciones de los proveedores y empresas

El artículo 16 detalla que los proveedores deben indicar su nombre y marca en la app, tener un sistema de gestión de calidad y elaborar la documentación técnica.

Por su parte, el empresario, según el artículo 26, tiene la obligación de usar el sistema siguiendo las instrucciones del proveedor y avisar a los representantes de los trabajadores antes de ponerlo en funcionamiento.

Transparencia y supervisión humana 

El artículo 14 del AI Act es crítico: ninguna decisión basada en el control horario (como un descuento salarial o una sanción) puede ser tomada exclusivamente por la IA sin validación humana.

El artículo 50 establece que, si el sistema de control horario interactúa directamente con personas físicas (por ejemplo, un chatbot de fichaje), el empleado debe ser informado de que está interactuando con una IA.

Registro y bases de datos

De acuerdo con el artículo 49, los proveedores de sistemas de control horario de alto riesgo deben registrarse, junto con su software, en la base de datos de la UE antes de introducir la herramienta en el mercado. Esto permite un control público y una supervisión directa por parte de las autoridades competentes.

Prácticas de IA prohibidas en el control horario

Técnicas subliminales o manipulación deliberada

En el ámbito del control horario, esto prohíbe sistemas de IA que envíen estímulos o notificaciones diseñadas para forzar a un empleado a no realizar sus descansos o a extender su jornada sin que sea plenamente consciente de la presión ejercida.

Explotación de vulnerabilidades

Por ejemplo, el uso de software de control horario con algoritmos diseñados para presionar a trabajadores con contratos precarios, induciéndoles a aceptar jornadas ilegales o a renunciar a sus derechos de desconexion digital.

Puntuación social o «Social Scoring»

No se permite, por ejemplo, crear un «ranking» de fidelidad del empleado basado exclusivamente en sus registros de fichaje para negarle beneficios sociales o servicios fuera de la estricta relación laboral.

Reconocimiento de emociones en el lugar de trabajo 

Esta prohibición afecta directamente a:

  • Terminales de fichaje equipados con cámaras.
  • Software de monitorización que utilice el análisis de voz.
  • Sistemas que pretendan detectar estados de ánimo del personal a través de su comportamiento digital durante el registro de jornada.

Categorización biométrica sensible

Un software de control de accesos nunca podrá usar información biométrica para etiquetar a la plantilla, protegiendo así la privacidad o protección de datos más íntimos del trabajador.

Nota legal importante: Independientemente de lo que permita la AI Act sobre biometría bajo vigilancia, en España el uso de la huella dactilar o el reconocimiento facial para fichar está actualmente vetado por la AEPD si existen métodos menos intrusivos, como una app de fichaje digital.

Sanciones que impone el AI Act por uso indebido de la IA en el registro horario

El artículo 99 cuantifica el coste de incumplir estas normas en el control horario:

  • Infracciones muy graves: multa de hasta 35.000.000 € o el 7% del volumen de negocios anual (por ejemplo, usar cámaras para detectar emociones o biometría para categorizar a los empleados por su ideología o religión).
  • Infracciones graves: multa de hasta 15.000.000 € o el 3% del volumen de negocios anual (por ejemplo, usar un software con IA para sancionar retrasos sin supervisión humana real.
  • Infracciones leves: multa de hasta 7.500.000 € o el 1% del volumen de negocios anual (por ejemplo, facilitar datos inexactos a la Inspección sobre cómo el algoritmo calcula las horas extra.

Para las PYMES y empresas emergentes, el apartado 6 del mismo artículo establece que se aplicará el porcentaje o la cuantía que sea menor, buscando proteger su viabilidad económica.

Todo sobre la nueva reforma del registro de jornada

Recomendaciones para implementar el registro horario, ejemplos de buenas prácticas y cómo gestionar conflictos y reclamaciones.
Derechos y obligaciones