Transparencia y fiabilidad: Aspectos clave en la aplicación de algoritmos laborales

La utilización cada vez más intensa de los algoritmos en las empresas, para cuestiones íntimamente ligadas a las condiciones laborales de sus trabajadores, como promociones, ascensos, reclutamiento y selección, cálculo de las retribuciones, e incluso, sobre procesos sancionadores y disciplinarios, debe cumplir todos y cada uno de los preceptos legales en defensa de los intereses y derechos de los trabajadores.

La opacidad con la que funcionan estos mecanismos cerrados, en la mayoría de las ocasiones bajo la excusa del secreto empresarial, protección de patentes o porque resultan “muy complejos de explicar”, pueden encubrir – como ya se ha demostrado en numerosos casos reales- tratamientos laborales discriminatorios, o como mínimo, parciales.

Así, muchas compañías toman como dogma inmutable que el funcionamiento de un algoritmo es neutral porque se base en criterios matemáticos, cuando la experiencia nos está demostrando que dichos procesos pueden atentar contra el principio fundamental de la igualdad de oportunidades.

Estos programas informáticos se desarrollan sobre patrones y precedentes, que no tienen que estar exentos de sesgos humanos (por ejemplo, por género, tendencia sexual, raza o religión). Las muestras recopiladas, sino son suficientemente ponderadas con fuentes diversas y equilibradas, pueden contaminar la lógica de proceso hasta convertirla en tendenciosa. En definitiva, estos sesgos de entrada, lejos de ser ecuánimes, perpetuarían muchos de los estereotipos actuales, fomentando tratamientos personales que estarían fuera de nuestro marco legal.

Además, los sistemas automatizados carecen de las garantías que proporcionan los sistemas tradicionales, como comprensión e interiorización del contexto, empatía, humanidad y, esto es muy importante, responsabilidad directa sobre la decisión tomada. Es decir, la excusa que plantean algunas empresas, alegando que las ciertas decisiones las toma “una máquina”, una suerte de caja negra impenetrable, no la eximen de responsabilidades, en ningún caso y bajo ningún concepto.

En definitiva, ambos factores (patrones sesgados y decisiones deshumanizadas) representan un auténtico peligro para los derechos fundamentales de los trabajadores.

UGT considera que el interés comercial o de organizativo de una empresa nunca debe primar sobre los derechos legales de los trabajadores. La facultad de Organización de una compañía no puede ni debe estar por encima del principio fundamental de la igualdad de oportunidades. Incluso el novedoso Reglamento de Protección General de Datos consolida la imparcialidad intrínseca de las decisiones que se toman sobre nuestras condiciones laborales, al incluir el derecho a conocer si nuestros datos están siendo tratados de forma “leal y transparente”, en especial, cuando se toman decisiones automatizadas, aportando al interesado información sobre la lógica informática (algoritmo) aplicada en cada caso.

Para evitar situaciones que hagan peligrar estos derechos, el Sindicato defiende la necesidad de construir sistemas algorítmicos abiertos, accesibles y compresibles, que puedan ser verificados por los trabajadores y sus Representantes, al objeto de comprobar su ecuanimidad, fiabilidad y transparencia. Automatización no puede convertirse en sinónimo de oscurantismo e injusticia social.

UGT Comunicaciones
Sector Estatal