Auditorías algorítmicas, la trampa de la reforma laboral con la que podrás ser penalizado
Las compañías habrán de prestar especial atención a las novedades en materia de derecho laboral que entrarán en vigor el próximo año
Con la llegada del nuevo año, las empresas habrán de estar atentas a las novedades que entrarán en vigor en materia de derecho laboral. Una clara muestra de ello, es el lanzamiento de auditorías algorítmicas en las empresas por parte del Ministerio de Trabajo encabezado por Yolanda Díaz con el objetivo de obtener una mayor transparencia en la toma de decisiones por parte de las compañías.
A través de esta iniciativa se persigue descifrar las fórmulas matemáticas que utilizan algunas compañías que penalizan a trabajadores cuando están enfermos o deciden participar en una huelga, entre otras situaciones.
Ante el creciente peso que los algoritmos están ganando en la toma de decisiones en el sector empresarial, el Ministerio de Trabajo ha deslizado la posibilidad de poner en marcha esta medida, si bien no ha concretado cuando comenzaría a materializarse.
Algoritmos «sesgados»
La titular de Trabajo ha advertido que algunos trabajadores puedan estar siendo penalizados o cobrando incentivos menores porque existe un algoritmo con «un sesgo» que los perjudica y que «no son neutros».
«Las auditorías algorítmicas darán transparencia a unas reglas que tienen impacto laboral y que no pueden quedar difuminadas en la automatización de los ordenadores», ha augurado el secretario de Estado de Trabajo, Joaquín Pérez Rey.
En este sentido, ha alertado que las relaciones laborales están sometidas a una «enorme invasión algorítmica», por lo que un «porcentaje muy significativo» de puestos de trabajo están afectados por este tipo de sistemas.
También ha subrayado el papel de los sistemas automatizados en decisiones como el despido de los empleados o la penalización de los mismos en términos de incentivos y de promoción profesional.
Evitar la discriminación
En un contexto en el que los algoritmos muestran «sesgos discriminatorios», ha puesto el foco sobre la importancia de garantizar que cuenten con «supervisión humana», pero también que estén al alcance de los representantes de los trabajadores.
Pérez Rey ha puesto como ejemplo la Ley Rider, la primera norma europea que aclara el estatus laboral de los trabajadores de plataformas de reparto a domicilio, como Glovo, Uber Eats, Just Eat o Deliveroo, y que permitirá corregir el falso trabajo por cuenta propia para garantizar unas mejores condiciones laborales.
«Tenía un componente muy decisivo e importante, que era que los representantes de los trabajadores tuvieran acceso a la información algorítmica para saber cómo accedía, cómo afectaba a sus condiciones de trabajo y creemos que tenemos que seguir trabajando en esta dirección», ha ahondado en relación a la legislación comunitaria.
Mecanismos de transparencia
Ante el escenario dibujado por los algoritmos, el secretario de Estado de Trabajo ha considerado que el sistema de las auditorías puede ser «especialmente útil» para saber cuándo las empresas usan mecanismos automatizados de toma de decisiones laborales y en qué sentido funcionan esos mecanismos automatizados.
El secretario de Estado de Trabajo considera que el sistema de las auditorías puede ser «especialmente útil». Foto: Freepik.
«Es una especie de acceso a la caja negra del algoritmo para que nos diga si se usa o no mecanismos automatizados, y si se usa, que lo haga con absoluto respeto a las normas de la legislación laboral», ha profundizado.
También ha abierto la puerta a convocar al grupo de expertos al que recurrió el departamento liderado por Yolanda Díaz para fijar una guía de transparencia algorítmica bajo el propósito de que brinden asesoramiento al Gobierno en materia de Inteligencia Artificial.
«De lo que se trata es de generar mecanismos de transparencia cuando la decisión, aparentemente, la toma un aséptico portátil en lugar de un jefe vestido y de carne y hueso», ha zanjado.