Logo de la Universdad de Valencia Logo Cátedra en Economía Colaborativa y Transformación Digital UV Logo del portal

Expertos abogan por una mayor protección de los trabajadores frente a la discriminación algorítmica

  • 5 marzo de 2021
Cartel de la jornada

Este miércoles 4 de marzo, en el marco de unas jornadas de la Universitat de València organizadas por la Càtedra d’Economia Col·laborativa i Transformació Digital y con el apoyo de la Fundación las Naves, un grupo de expertos de varias universidades españolas se han reunido para debatir sobre las distintas implicaciones del uso de algoritmos y Inteligencia Artificial en los procesos de contratación y despido, organización del trabajo, entre otros, así como sobre el alcance y las limitaciones de la regulación vigente.

Así, los distintos ponentes han estado de acuerdo en señalar que, si bien las decisiones automatizadas pueden ser herramientas muy útiles para las empresas, dado que, como ha remarcado el profesor Todolí Signes, profesor de Derecho del Trabajo de la UVEG, la tecnología ha facilitado y abaratado la recogida y el procesamiento de datos, su uso lleva asociado determinados riesgos, entre los cuales destaca la amplificación de sesgos preexistentes, a través de distintos mecanismos. En esta línea, han insistido los participantes, la mayor preeminencia de determinados grupos sociales en el diseño algorítmico y la programación, el propio sesgo de las fuentes de información de las que beben los algoritmos -tanto en términos de sobrerrepresentación de algunos datos como carencia o ausencia de otras- tienden a afectar sobremanera a minorías o grupos históricamente discriminados. Asimismo, tal y como remarca la profesora Ginès i Fabrellas, ESADE, la reproducción de sesgos y estereotipos de género son el paradigma de la discriminación algorítmica, y, aunque no se trata de problemas nuevos, sí se magnifican sus consecuencias.

A modo de ejemplo, la profesora Rivas Vallejo, Universidad de Barcelona, ha explicado cómo el reclutamiento digital, basada en criterios que la empresa facilita para evaluar las competencias y habilidades de los candidatos, y a través de modelos matemáticos que se alimentan de datos absorben patrones sociales de conducta y los reproducen, asumiéndolos como buenos -’el perfil que mejor se adapta a la empresa’-, de manera que en los procesos de criba y selección de personal priorizan a candidatos con características muy específicas. De la misma manera, los sistemas de reputación digitales tienden a favorecer determinados grupos por encima de otros.

Ante estos nuevos retos, Ginès i Fabrella propone superar la brecha de datos, una mayor diversidad en los perfiles que crean y codifican los algoritmos, así como cuotas en éstos, entre algunas de las posibles soluciones para eliminar los sesgos existentes. Asimismo, las decisiones algorítmicas no pueden estar exentas de implicaciones éticas, que contemplen qué tipología de actuaciones pueden realizarse, así como qué variables pueden o deben tenerse en cuenta.

¿Cuál es el tratamiento jurídico ante la discriminación algorítmica? Para Todolí Signes, la mayor vulnerabilidad de los trabajadores frente a las decisiones laborales automatizadas ha facilitado que la regulación de protección de datos se vuelva más garantista cuando las decisiones son tomadas por un algoritmo que no por un responsable de Recursos humanos, proponiendo disposiciones que no solo protegen la intimidad y el derecho a la no discriminación, sino también derechos de información para el afectado por una decisión automatizada e incluso el llamado “derecho a una explicación”. De hecho, como se deriva del artículo 22 del Reglamento General de Protección de Datos Europeo 2016/679, como regla general se debe partir de la prohibición del uso de decisiones totalmente automatizadas que afectan a los derechos de los trabajadores. El profesor Molina Navarrete, Universidad de Jaén, matiza que "la cuestión no es si se debe regular, que ya se está haciendo, sino quién y cómo". En ese sentido, se ha hecho hincapié en la necesidad de avanzar hacia la gobernanza colectiva en materia de protección de datos, que incluya a actores diversos con capacidad para negociar los algoritmos y cogestionarlos, como una propuesta que equilibre los poderes de negociación dispares entre empleadores y empleados.

Por último, los ponentes han insistido en la necesidad de una mayor transparencia, que facilite la comprensión de la toma de decisiones, tanto ex ante como ex post. En la misma línea, en opinión de los expertos es imprescindible reforzar el derecho a una explicación, de manera que exista y sea accesible información completa de los fundamentos utilizados por la tecnología para tomar las decisiones, ya que de ello depende evitar la indefensión de los afectados. Ello puede conllevar un difícil equilibrio con la protección del secreto industrial, aunque como matiza el profesor Molina Navarrete, no sería tan necesario conocer el funcionamiento técnico como los riesgos y resultados.

Este debate se enmarca dentro de investigaciones sobre como la tecnología afecta al mercado de trabajo y a los derechos de los trabajadores que lleva a cabo la Cátedra de Economía Colaborativa y Trasformación Digital y entre cuyas recientes publicaciones se encuentra una investigación titulada “Vigilancia y control en el Derecho del trabajo Digital”.

La jornada ha contado con una amplia participación de público, y forma parte de la serie de conferencias que la Cátedra dedica a analizar la economía digital y los derechos de los trabajadores. De esta línea de trabajo también es resultado el recientemente publicado libro ‘Vigilancia y Control en el Derecho del Trabajo', ya disponible en librerías.