El uso de inteligencia artificial en el control de jornada puede aportar eficiencia, pero también conlleva riesgos para los derechos laborales. La automatización mal aplicada puede generar errores, vulnerar la intimidad o provocar decisiones injustas.
Por eso existen límites legales claros. Las empresas deben garantizar que el uso de la IA respeta la normativa de protección de datos, no sustituye la intervención humana y evita prácticas discriminatorias.
A continuación vemos cuáles son en concreto los riesgos y prohibiciones de la IA en el control horario.
La IA puede cometer fallos al registrar horarios, especialmente si se basa en comportamientos digitales o sensores. Esto puede traducirse en jornadas mal computadas o pausas mal interpretadas.
Los errores deben poder revisarse y corregirse con mecanismos accesibles, sin perjudicar al trabajador por fallos del sistema.
Algunos sistemas con IA recopilan datos de actividad, ubicación o comportamiento. Esto puede suponer una intromisión en la vida privada, especialmente en contextos de teletrabajo.
La ley prohíbe el tratamiento excesivo o innecesario de datos. Solo se pueden recoger los estrictamente necesarios para cumplir con el control horario.
La toma de decisiones completamente automatizada, como aplicar sanciones por incumplimiento de jornada sin revisión humana, está prohibida.
Toda medida basada en datos recogidos por IA debe ser evaluada por una persona responsable, que pueda valorar el contexto y escuchar al trabajador.
Los sistemas de IA pueden incorporar sesgos que afecten negativamente a ciertos perfiles laborales. Por ejemplo, penalizar descansos por lactancia o asociar ciertas pausas con baja productividad.
La discriminación algorítmica, aunque sea no intencionada, es ilegal y puede vulnerar derechos fundamentales. Las empresas deben auditar sus sistemas para evitarla.
En la Unión Europea están prohibidas ciertas tecnologías invasivas, como el fichaje por reconocimiento facial o el análisis emocional mediante IA.
Estas prácticas vulneran el derecho a la intimidad y no cumplen con los principios del Reglamento General de Protección de Datos. Usarlas puede suponer sanciones graves para la empresa.
Sí. Los sistemas automatizados no son infalibles. Tienes derecho a corregir errores y a que un humano revise tu situación.
Sí, en la mayoría de los casos. En Europa no se permite fichar con reconocimiento facial, ya que se considera un método desproporcionado para el fin perseguido.
La Inspección de Trabajo, la AESIA y la AEPD pueden auditar los sistemas y sancionar a las empresas que incumplan la ley.
Puedes acudir a tu delegado sindical, a la Inspección de Trabajo o presentar una reclamación ante la Agencia de Protección de Datos.