Una demanda por prejuicios de edad lleva a juicio la contratación mediante IA

Demanda discriminación IA

Lo que las empresas pueden y no pueden hacer en cuanto al uso de herramientas de IA en sus procesos de contratación está cada vez más claro tras un caso resuelto en Nueva York a principios de este mes. La Comisión para la Igualdad de Oportunidades en el Empleo presentó una demanda contra una empresa china de tutorías online por utilizar supuestamente una herramienta de IA que filtraba y rechazaba automáticamente a unas 200 candidatas mayores de 55 años y a hombres mayores de 60 años.

Una de las candidatas descubrió el error al ser rechazada rápidamente, pero decidió presentar su mismo currículum con una fecha de nacimiento diferente, lo que le valió una entrevista, según la demanda, presentada ante el Tribunal del Distrito Este de Nueva York.

La empresa aceptó pagar 365.000 dólares, aunque no admitió haber cometido ningún delito, y creará nuevas políticas antidiscriminatorias, reconsiderará a todos los solicitantes rechazados injustamente y repartirá la cantidad del acuerdo entre ellos.

Natalie Pierce, socia de Gunderson Dettmer y directora del departamento de empleo y trabajo del bufete, afirma: "Esto es tan obvio como que un ser humano entreviste a los candidatos y rechace a los de más edad en detrimento de los más jóvenes". "Pero la selección la hizo la IA, no un ser humano", añadió.

¿Por qué es importante?

Es la primera vez que la EEOC (la agencia gubernamental estadounidense que investiga las denuncias de discriminación laboral) resuelve un caso relacionado con herramientas de IA sesgadas utilizadas en procesos de contratación. Se produce en un momento en que continúa la rápida adopción de la IA y los reguladores de todo el mundo tratan de tomar medidas drásticas contra el uso sin restricciones de estas herramientas.

Este verano entró en vigor en Nueva York la primera ley estadounidense sobre herramientas de contratación basadas en IA y sesgos. Requiere una auditoría de sesgo en cualquier herramienta automatizada de decisión de empleo que puntúe o clasifique a los solicitantes antes de su uso, y las empresas deben notificar a los solicitantes que están utilizando las herramientas.

En última instancia, sin embargo, en este caso se trata de normas federales que prohíben tomar decisiones de contratación basadas en aspectos como la edad, el sexo o la raza del solicitante.

"En realidad, no debería considerarse una nueva responsabilidad de las empresas, sino una ampliación de lo que ya sabemos", afirma Sara Gutiérrez, directora científica de SHL, una empresa de data e investigación sobre la mano de obra.

¿Qué significa esto para las empresas?

Nicolette Nowak, consejera general adjunta y responsable de protección de datos de Beamery, una empresa de software de gestión del talento y selección de personal, afirma: "Las empresas deberían aprovechar esta oportunidad para revisar sus propias prácticas de contratación y cómo utilizan las herramientas de que disponen".

El actual proceso de contratación online hace que las empresas, sobre todo las grandes, se vean inundadas de solicitudes, por lo que cada vez son más necesarias las herramientas de inteligencia artificial para cribar los currículos. También es cierto que la gran dimisión y la consiguiente competencia feroz por el talento han llevado a muchas empresas a modificar sus políticas de contratación y reclutamiento para poder presentar ofertas a los mejores candidatos con mayor rapidez.

Según una encuesta realizada en febrero de 2022 por la Sociedad de Gestión de Recursos Humanos, en la que participaron más de 1.600 encuestados, más del 60% de las empresas utilizan herramientas de inteligencia artificial para examinar los currículos y filtrar automáticamente a los candidatos no cualificados. Y casi el 40% afirma que sus herramientas ofrecen una clasificación o un porcentaje de coincidencia para cada candidato.

"La lección para los empleadores que utilizan herramientas de selección, con o sin IA, es que deben encontrar la forma de asegurarse de que estas herramientas no infringen la legislación vigente", afirma Pierce.

Los casos de discriminación en la contratación suelen ser más difíciles de probar, ya que la mayoría de los solicitantes desconocen el proceso y los criterios que se utilizan para seleccionarlos, pero la ley de Nueva York obliga a los empleadores a indicar en los anuncios de empleo si utilizan IA en el proceso de contratación.

A principios de este año, Pierce y su equipo enviaron una alerta a los clientes para informarles de la nueva ley de Nueva York y de las directrices sobre el uso de herramientas de IA en los procesos de contratación. Esa ley ofrece un buen marco para que las empresas la sigan, tanto si emplean a personas como si no, afirmó.

¿Qué dice esto sobre los defectos de la IA?

El pasado mes de mayo, la EEOC advirtió a las empresas de su responsabilidad permanente de cumplir las leyes federales contra la discriminación, incluso cuando utilicen nuevas herramientas de IA para agilizar sus procesos de contratación.

"Creo que el principal resultado de todo esto es que los empresarios no pueden escudarse en los proveedores para justificar sus prácticas de contratación discriminatorias", afirma Nowak.

Pero las directrices de la EEOC están concienciando cada vez más sobre la importancia de utilizar algoritmos de calidad. "No cabe duda de que habrá herramientas que no estén diseñadas con la intención y el cuidado necesarios, y que tendrán fallos, pero en realidad se trata de la calidad del modelo de IA", afirmó Gutiérrez.

Según la encuesta de la SHRM, alrededor del 70% de las empresas adquieren las herramientas de IA que utilizan en la contratación y otros procesos de RR.HH. a un único proveedor. Y el 24% dijo que algunas de sus herramientas fueron compradas a un proveedor y otras fueron creadas internamente, mientras que el 8% aseguró que sus herramientas fueron desarrolladas exclusivamente de forma interna.

Entre los que utilizan herramientas adquiridas a proveedores, sólo el 40% de los encuestados afirma confiar plenamente en ellas para prevenir o proteger contra los prejuicios, según la encuesta.

"Hay que pensar realmente en la parte ética de la aplicación de la IA desde el principio del proceso", afirma Milena Berry, CEO y cofundadora de PowerToFly, una plataforma de contratación y retención de la diversidad.

Fuente: Worklife

Anterior
Anterior

Monetización de Data frente a la caducidad de los IDs: las mejores prácticas de Data Strategy

Siguiente
Siguiente

Google se alía con Typeface y GrowthLoop para lanzar su nueva herramienta de marketing basada en la inteligencia artificial