En esta guía desglosamos todas las claves de la AI Act y su aplicación en el control horario y los sistemas de fichaje.
Según el artículo 6 del AI Act, los sistemas de IA utilizados en el empleo, la gestión de trabajadores y el acceso al autoempleo se consideran Sistemas de Alto Riesgo. Esto aplica a cualquier herramienta de control horario que:
Si el software de control horario usa IA para gestionar personas, debe cumplir el artículo 10 del AI Act, que exige una gobernanza de datos estricta para evitar sesgos discriminatorios.
Además, el artículo 12 obliga al sistema a permitir el registro automático de eventos (logs) durante todo su ciclo de vida para garantizar la trazabilidad de cada fichaje e incidencia.
El artículo 16 detalla que los proveedores deben indicar su nombre y marca en la app, tener un sistema de gestión de calidad y elaborar la documentación técnica.
Por su parte, el empresario, según el artículo 26, tiene la obligación de usar el sistema siguiendo las instrucciones del proveedor y avisar a los representantes de los trabajadores antes de ponerlo en funcionamiento.
El artículo 14 del AI Act es crítico: ninguna decisión basada en el control horario (como un descuento salarial o una sanción) puede ser tomada exclusivamente por la IA sin validación humana.
El artículo 50 establece que, si el sistema de control horario interactúa directamente con personas físicas (por ejemplo, un chatbot de fichaje), el empleado debe ser informado de que está interactuando con una IA.
De acuerdo con el artículo 49, los proveedores de sistemas de control horario de alto riesgo deben registrarse, junto con su software, en la base de datos de la UE antes de introducir la herramienta en el mercado. Esto permite un control público y una supervisión directa por parte de las autoridades competentes.
En el ámbito del control horario, esto prohíbe sistemas de IA que envíen estímulos o notificaciones diseñadas para forzar a un empleado a no realizar sus descansos o a extender su jornada sin que sea plenamente consciente de la presión ejercida.
Por ejemplo, el uso de software de control horario con algoritmos diseñados para presionar a trabajadores con contratos precarios, induciéndoles a aceptar jornadas ilegales o a renunciar a sus derechos de desconexion digital.
No se permite, por ejemplo, crear un «ranking» de fidelidad del empleado basado exclusivamente en sus registros de fichaje para negarle beneficios sociales o servicios fuera de la estricta relación laboral.
Esta prohibición afecta directamente a:
Un software de control de accesos nunca podrá usar información biométrica para etiquetar a la plantilla, protegiendo así la privacidad o protección de datos más íntimos del trabajador.
Nota legal importante: Independientemente de lo que permita la AI Act sobre biometría bajo vigilancia, en España el uso de la huella dactilar o el reconocimiento facial para fichar está actualmente vetado por la AEPD si existen métodos menos intrusivos, como una app de fichaje digital.
El artículo 99 cuantifica el coste de incumplir estas normas en el control horario:
Para las PYMES y empresas emergentes, el apartado 6 del mismo artículo establece que se aplicará el porcentaje o la cuantía que sea menor, buscando proteger su viabilidad económica.