banner
Hogar / Noticias / Las afirmaciones de que la IA puede impulsar la diversidad en el lugar de trabajo son "falsas y peligrosas"
Noticias

Las afirmaciones de que la IA puede impulsar la diversidad en el lugar de trabajo son "falsas y peligrosas"

May 06, 2023May 06, 2023

En los últimos años se ha visto el surgimiento de herramientas de IA comercializadas como una respuesta a la falta de diversidad en la fuerza laboral, desde el uso de chatbots y rastreadores de CV para alinear posibles candidatos, hasta software de análisis para entrevistas en video.

Quienes están detrás de la tecnología afirman que cancela los prejuicios humanos contra el género y la etnia durante el reclutamiento, y en su lugar utilizan algoritmos que leen el vocabulario, los patrones del habla e incluso las microexpresiones faciales para evaluar grandes grupos de solicitantes de empleo para el tipo de personalidad adecuado y "ajuste cultural". "

Sin embargo,en un nuevo informe publicadoen Filosofía y Tecnología, investigadores del Centro de Estudios de Género de Cambridge argumentan que estas afirmaciones hacen algunos usos de la IA en la contratación poco mejor que una "pseudociencia automatizada" que recuerda a la fisonomía o la frenología: las creencias desacreditadas de que la personalidad se puede deducir de los rasgos faciales y la forma del cráneo. .

Dicen que es un ejemplo peligroso de "tecnosolucionismo": recurrir a la tecnología para proporcionar soluciones rápidas a problemas de discriminación profundamente arraigados que requieren inversión y cambios en la cultura de la empresa.

De hecho, los investigadores han trabajado con un equipo de estudiantes universitarios de informática de Cambridge para desacreditar estas nuevas técnicas de contratación mediante la construcción de una herramienta de inteligencia artificial basada en la tecnología.

La "Máquina de la personalidad" demuestra cómo los cambios arbitrarios en la expresión facial, la ropa, la iluminación y el fondo pueden dar lecturas de personalidad radicalmente diferentes y, por lo tanto, podrían marcar la diferencia entre el rechazo y la progresión para una generación de buscadores de empleo que compiten por puestos de posgrado.

El equipo de Cambridge dice que el uso de IA para reducir los grupos de candidatos puede, en última instancia, aumentar la uniformidad en lugar de la diversidad en la fuerza laboral, ya que la tecnología está calibrada para buscar el "candidato ideal" de fantasía del empleador.

Esto podría hacer que aquellos con la capacitación y los antecedentes adecuados "ganen a los algoritmos" al replicar comportamientos que la IA está programada para identificar y llevar esas actitudes al lugar de trabajo, dicen los investigadores.

Además, a medida que los algoritmos se perfeccionan utilizando datos anteriores, argumentan que es probable que los candidatos considerados más adecuados terminen siendo los que más se parecen a la fuerza laboral actual.

"Nos preocupa que algunos proveedores envuelvan productos de 'aceite de serpiente' en un paquete brillante y los vendan a clientes desprevenidos", dijo la coautora, la Dra. Eleanor Drage.

"Al afirmar que el racismo, el sexismo y otras formas de discriminación pueden eliminarse del proceso de contratación utilizando inteligencia artificial, estas empresas reducen la raza y el género a puntos de datos insignificantes, en lugar de sistemas de poder que dan forma a cómo nos movemos por el mundo. ."

Los investigadores señalan que estas herramientas de reclutamiento de IA a menudo son propietarias, o "caja negra", por lo que su funcionamiento es un misterio.

"Si bien es posible que las empresas no actúen de mala fe, hay poca responsabilidad sobre cómo se construyen o prueban estos productos", dijo Drage. "Como tal, esta tecnología, y la forma en que se comercializa, podrían terminar como fuentes peligrosas de información errónea sobre cómo el reclutamiento puede ser 'dessesgado' y más justo".

A pesar de algunos retrocesos (por ejemplo, la Ley de IA propuesta por la UE clasifica el software de contratación impulsado por IA como de "alto riesgo"), los investigadores dicen que las herramientas fabricadas por empresas como Retorio y HIreVue se implementan con poca regulación, y señalan encuestas que sugieren el uso de IA. en la contratación es una bola de nieve.

Un estudio de 2020 de 500 organizaciones en varias industrias en cinco países encontró que el 24 por ciento de las empresas han implementado IA con fines de contratación y el 56 por ciento de los gerentes de contratación planean adoptarla el próximo año.

Otra encuesta de 334 líderes en recursos humanos, realizada en abril de 2020, cuando se desató la pandemia, encontró que el 86 por ciento de las organizaciones estaban incorporando nueva tecnología virtual en las prácticas de contratación.

"Esta tendencia... ya existía cuando comenzó la pandemia, y es probable que el cambio acelerado al trabajo en línea causado por COVID-19 vea un mayor despliegue de herramientas de inteligencia artificial por parte de los departamentos de recursos humanos en el futuro", dijo el coautor Dr. Kerry Mackereth, quien presenta el podcast Good Robot con Drage, en el que el dúo explora la ética de la tecnología.

COVID-19 no es el único factor, según los agentes de recursos humanos que los investigadores han entrevistado. "El volumen de reclutamiento es cada vez más insostenible para los equipos de recursos humanos que están desesperados por un software para reducir costos, así como también para la cantidad de solicitantes que necesitan atención personalizada", dijo Mackereth.

Drage y Mackereth dicen que muchas empresas ahora usan IA para analizar videos de candidatos, interpretando la personalidad evaluando regiones de una cara, similar a la IA de detección de mentiras, y calificando para los "cinco grandes" tropos de personalidad: extroversión, amabilidad, apertura, escrupulosidad, y neuroticismo.

Los estudiantes detrás de Personality Machine, que utiliza una técnica similar para exponer sus fallas, dicen que si bien es posible que su herramienta no ayude a los usuarios a superar el algoritmo, les dará a los buscadores de empleo una idea de los tipos de escrutinio de IA que podrían estar bajo, tal vez incluso sin su conocimiento.

"Con demasiada frecuencia, el proceso de contratación es oblicuo y confuso", dijo Euan Ong, uno de los estudiantes desarrolladores. "Queremos darle a la gente una demostración visceral del tipo de juicios que ahora se hacen sobre ellos automáticamente.

"Estas herramientas están entrenadas para predecir la personalidad en función de patrones comunes en imágenes de personas que han visto previamente y, a menudo, terminan encontrando correlaciones falsas entre la personalidad y propiedades aparentemente no relacionadas de la imagen, como el brillo. Hicimos una versión de juguete de este tipo. de modelos que creemos que se usan en la práctica, para experimentar con ellos nosotros mismos", dijo Ong.

- Este comunicado de prensa se publicó originalmente en el sitio web de la Universidad de Cambridge

en un nuevo informe publicado