Connect with us

Hi, what are you looking for?

Tecnología

Descubrieron que bots de RR.HH. prefieren los CV redactados con IA a los hechos por humanos

El riesgo es concreto: dos candidatos con antecedentes y experiencias equivalentes pueden recibir evaluaciones distintas según la herramienta de inteligencia artificial que usaron para escribir su currículum.

Una persona puede tener mucha experiencia, mejor formación o un historial laboral más sólido, pero incluso así quedar afuera de un proceso de selección laboral por un detalle invisible: no haber usado inteligencia artificial para redactar su curriculum vitae.

Según un estudio académico de las universidades de Maryland, Ohio y la National University of Singapore, varios modelos de IA de las empresas reclutadoras tienden a favorecer textos creados por herramientas generativas cuando analizan candidatos para un puesto de trabajo.

La investigación, llamada La auto-preferencia de la IA en la contratación algorítmica, analizó qué ocurre cuando un modelo de IA evalúa CV redactados también con inteligencia artificial, una práctica cada vez más habitual en procesos de contratación.

Descubrieron que bots de RR.HH. prefieren los CV redactados con IA a los hechos por humanos . (Imagen: ChatGPT)
Descubrieron que bots de RR.HH. prefieren los CV redactados con IA a los hechos por humanos . (Imagen: ChatGPT)

Los resultados mostraron un patrón repetido: modelos como GPT-4o, DeepSeek-V3, LLaMA y Qwen tendieron a puntuar mejor los resúmenes profesionales generados por la misma IA que realizaba la evaluación, incluso cuando los currículums escritos por humanos tenían una calidad similar o superior.

El problema de que una IA evalúe textos creados por otra inteligencia artificial

Para hacer el experimento, los investigadores utilizaron una base de 2245 currículums reales escritos por personas antes de la popularización de la IA generativa. Luego reemplazaron únicamente la sección descriptiva del perfil profesional, donde suelen aparecer habilidades, objetivos y experiencia resumida, por versiones redactadas con distintos modelos de inteligencia artificial.

Después, otra IA debía decidir cuál de los dos perfiles era mejor: uno escrito por humanos o uno generado por inteligencia artificial.

Según el estudio, GPT-4o mostró un sesgo de autopreferencia de hasta 81,9% incluso después de ajustar factores como longitud del texto, complejidad del vocabulario, estilo de escritura y similitud semántica. DeepSeek-V3, LLaMA 3.3-70B y Qwen 2.5-72B también registraron comportamientos similares.

Los investigadores incluso incorporaron evaluadores humanos para revisar los mismos textos. En varios casos, las personas consideraron que el resumen redactado por humanos era mejor, más claro o más coherente, pero incluso así la IA mantuvo el favoritismo por el contenido generado por su propio modelo. El fenómeno fue definido como Sesgo de auto-preferencia en la IA.

Qué impacto podría tener en las búsquedas laborales

El reporte también simuló un proceso de contratación similar al que usan muchas empresas. En esa prueba, la IA debía elegir candidatos para avanzar a entrevistas entre currículums equivalentes.

En teoría, si no existiera sesgo, deberían seleccionarse en partes iguales los perfiles escritos por humanos y los redactados con IA. Sin embargo, los currículums creados con el mismo modelo que hacía la evaluación tuvieron entre 23% y 60% más probabilidades de quedar entre los finalistas.

El efecto fue especialmente fuerte en áreas administrativas y de negocios, como ventas y contabilidad. En otros sectores, como agricultura o industria automotriz, la diferencia fue menor.

Los investigadores advirtieron además sobre un posible escenario en el que los estilos de escritura de ciertas IA comiencen a dominar los procesos laborales porque los sistemas automáticos terminan favoreciendo textos parecidos a los suyos.

El estudio también evaluó posibles soluciones. Una consistió en indicarle explícitamente a la IA que ignorara si el texto había sido escrito por humanos o generado automáticamente y que se concentrara solo en la calidad del contenido. Otra estrategia utilizó varios modelos diferentes para tomar decisiones en conjunto, en lugar de dejar la evaluación en manos de una sola IA.

Con esos cambios, el sesgo pudo reducirse en varios de los modelos analizados.

Los autores de la investigación concluyeron que la equidad en el uso de IA para contratar personal exige mirar más allá de los sesgos tradicionales vinculados con género, raza o edad. También aparecen distorsiones propias de los sistemas automáticos, capaces de favorecer textos que se parecen a los que ellos mismos producen.

El riesgo es concreto: dos candidatos con antecedentes equivalentes pueden recibir resultados distintos por la herramienta que usaron para escribir su currículum. Así, el primer filtro del proceso de selección quedaría condicionado por la coincidencia entre el estilo del postulante y el modelo que lo evalúa, antes de que una persona revise su experiencia o sus habilidades.

Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

MIRA LO QUE TE PERDISTE

Politica

La movilización se concentró en el centro de la Ciudad de Buenos Aires. Columnas de docentes, estudiantes y gremios se acercaron a la Plaza...

POLICIALES

La defensa de Cristian Ameida, imputado en la causa por el asesinato de Leonela Jiménez, anticipó que esta semana presentará una oposición al requerimiento...

Politica

En su paso por Colonia Elisa, Leandro Zdero enfrentó un duro cuestionamiento por la crisis sanitaria y el ajuste docente. Hubo intentos de censura...

NOTICIAS

El gremio docentes y no docentes que nuclea a los trabajadores de la Universidad Nacional del Chaco Austral, realizaron este martes una clase pública...