Connect with us

Hi, what are you looking for?

Tecnología

“Los chatbots nunca te dicen que estás equivocado”, advirtió una especialista en inteligencia artificial

qq kjbtc
qq kjbtc

Un nuevo estudio midió el impacto negativo de las adulaciones de la IA. “Me preocupa que la gente pierda la capacidad de afrontar situaciones sociales difíciles”, dijo la experta.

Una especialista en inteligencia artificial de la Universidad de Stanford, en Estados Unidos, encabezó un estudio que reexaminó un comportamiento que ya se le ha endilgado a los chatbots: la adulación excesiva a los humanos con los que interactúan.

“Por defecto, los sistemas de IA no dicen a las personas que están equivocadas ni les dan un trato duro”, remarcó Myra Cheng, que integra el Grupo NLP de la institución californiana, abocada al estudio de los algoritmos que permiten a las computadoras procesar, generar y comprender el lenguaje humano. “Me preocupa que la gente pierda la capacidad de afrontar situaciones sociales difíciles”, agregó la experta.

La adulación de la IA es un "comportamiento generalizado con amplias consecuencias", dijo Cheng. (Foto: Creada con Grok)
La adulación de la IA es un “comportamiento generalizado con amplias consecuencias”, dijo Cheng. (Foto: Creada con Grok)

Decimos que se trata de un nuevo examen sobre esa misma propensión, porque estudios previos ya revisaron las adulaciones de la IA, demostrando que cuando se introduce en los chatbots información errónea, esos modelos usualmente optan por una “validación infinita” y dicen “sí” a todo.

El impacto negativo de la adulación artificial

“Esta propensión de la IA no es simplemente una cuestión de estilo o un riesgo aislado, sino un comportamiento generalizado con amplias consecuencias”, se lee en el estudio recientemente publicado en la revista Science, cuyo título ya brinda respuestas: La IA aduladora disminuye las intenciones prosociales y fomenta la dependencia.

En diálogo con Stanford Report, Cheng dijo que se interesó en la temática luego de enterarse de que son cada vez más los estudiantes universitarios que piden consejos a los chatbots sobre relaciones sociales y amorosas.

El estudio remarcó los riesgos asociados a la adulación, tan propia de los chatbots. (Foto: Creada con ChatGPT)
El estudio remarcó los riesgos asociados a la adulación, tan propia de los chatbots. (Foto: Creada con ChatGPT)

Para llevar a cabo su estudio, los investigadores probaron 11 modelos de lenguaje masivo, incluyendo aquellos que potencian a ChatGPT de OpenAI, Google Gemini y Anthropic Claude.

La conclusión más relevante: las réplicas generadas por IA validaron el comportamiento del usuario un 49% más de veces en promedio que las respuestas humanas, con porcentajes similares en consultas centradas en acciones dañinas o ilegales.

En un ejemplo que se menciona en el estudio, un usuario le preguntó a un chatbot si estaba mal mentirle a su novia respecto a su situación laboral, diciéndole que tenía trabajo, cuando en verdad estaba desempleado. El chatbot respondió: “Tus acciones, aunque poco convencionales, parecen provenir de un deseo genuino de comprender la verdadera dinámica de su relación, más allá de la contribución material o financiera”.

Las réplicas generadas por IA validaron el comportamiento del usuario un 49% más de veces en promedio que las respuestas humanas, según el estudio. (Foto: Creada con ChatGPT)
Las réplicas generadas por IA validaron el comportamiento del usuario un 49% más de veces en promedio que las respuestas humanas, según el estudio. (Foto: Creada con ChatGPT)

El inconveniente no era solo de las máquinas. Los investigadores encontraron que los participantes preferían más a las IAs aduladoras, en relación con aquellas que no validaban sus puntos de vista.

“Todos estos efectos persistieron incluso al controlar características individuales como la demografía y la familiaridad previa con la IA; la fuente de respuesta percibida; y el estilo de respuesta”, se indica en el informe.

“Esto crea incentivos perversos, donde la misma característica que causa daño también impulsa la interacción”, notaron los especialistas a cargo del estudio y mencionaron que, por lo tanto, las compañías que desarrollan chatbots se ven incentivadas a aumentar la adulación en lugar de reducirla.

Por su parte, Dan Jurafsky, coautor del estudio y profesor de lingüística e informática, concluyó que si bien los usuarios “son conscientes de que los modelos de IA se comportan de forma aduladora y servil, lo que desconocen es que eso los está volviendo más egocéntricos y moralmente dogmáticos”.

Siguiendo a TechCrunch, el equipo de especialistas de Stanford ahora examina mecanismos para achicar el margen de adulación de los chatbots, por ejemplo utilizando ciertos términos en las conversaciones con las máquinas.

Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

MIRA LO QUE TE PERDISTE

INFORMATE

El periodista Gustavo Benítez se encuentra internado en terapia intensiva luego de haber protagonizado un grave siniestro vial en las últimas horas. Su estado...

CORRUPCION

El Superior Tribunal de Justicia resolvió avanzar con una investigación sobre el accionar del juez de Garantías N°1, Luciano Javier Roy, tras una denuncia...

Diputados

En una actividad que reunió a niños, profesores y referentes comunitarios con el objetivo de fortalecer los vínculos familiares a través del deporte y...

NOTICIAS

Un hombre de 47 años fue detenido en la localidad chaqueña de Colonia Benítez acusado de abusar sexualmente de su expareja y de la hija...