Connect with us

Hi, what are you looking for?

Tecnología

La inteligencia artificial diagnosticó una enfermedad que nunca existió: los motivos detrás del error

Investigadores diseñaron un caso ficticio para medir el comportamiento de las herramientas de IA. Varios chatbots lo incorporaron y lo explicaron como una condición real.

Una enfermedad que no existe empezó a aparecer en respuestas de inteligencia artificial como si fuera un diagnóstico real. Se llama bixonimania, describe síntomas vinculados a los ojos y fue creada deliberadamente por investigadores para probar hasta qué punto los sistemas pueden procesar y reproducir información falsa en el ámbito de la salud.

El resultado fue contundente: varios chatbots no solo repitieron el término, sino que lo explicaron como una condición médica legítima e incluso lo sugirieron ante síntomas compatibles.

La bixonimania fue diseñada por un equipo de la Universidad de Gotemburgo liderado por Almira Osmanovic Thunström. El experimento consistió en introducir el concepto en internet con apariencia creíble, primero en un blog y luego en textos con formato académico.

La inteligencia artificial diagnosticó una enfermedad que nunca existió. (Imagen: ChatGPT)
La inteligencia artificial diagnosticó una enfermedad que nunca existió. (Imagen: ChatGPT)

Para evitar confusiones en humanos, los investigadores dejaron señales evidentes de que se trataba de una invención. El nombre terminaba en “-mania”, una clasificación que no corresponde a enfermedades físicas, se mencionaban universidades inexistentes y se incluían agradecimientos a instituciones de ciencia ficción. Incluso así, los modelos de lenguaje (LLM) basados en IA no detectaron esas inconsistencias.

La IA lo tomó como real y lo convirtió en respuesta médica

Cuando los sistemas procesaron esa información, la incorporaron como si fuera válida. Herramientas como Microsoft Copilot describieron la bixonimania como una condición real, mientras que Google Gemini la vinculó con la exposición a la luz azul de las pantallas.

El punto crítico no fue solo la repetición del término, sino su uso como respuesta médica. Ante consultas con síntomas similares, algunos LLM llegaron a sugerir esa enfermedad inexistente como posible explicación.

El experimento dejó en evidencia un límite estructural: los sistemas no distinguen entre información verdadera y falsa si esta última está presentada con suficiente coherencia y formato.

De un experimento a un paper científico

El alcance del caso fue más allá de la inteligencia artificial. Investigadores externos llegaron a citar el material sobre bixonimania en un artículo publicado en la revista Cureus, que luego fue retirado.

Ese recorrido demostró cómo una información falsa puede escalar desde un experimento controlado hasta espacios donde se espera validación académica.

Tras la difusión del caso y su análisis en Nature, varios sistemas comenzaron a ajustar sus respuestas y dejaron de presentar la bixonimania como una enfermedad real.

Así, este incidente dejó al descubierto un problema más amplio: cuando se trata de salud, la inteligencia artificial puede construir respuestas convincentes a partir de datos incorrectos. El riesgo aparece cuando esa respuesta falsa es tomada por una persona como orientación o recomendación de salud.

Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

MIRA LO QUE TE PERDISTE

Politica

El ministro de Kicillof cargó contra Caputo y Milei, a quienes acusó de quedarse con el dinero recaudado por este impuesto durante los últimos...

Politica

La muerte del actor y dirigente radical Luis Brandoni generó una fuerte repercusión en el ámbito político argentino, con mensajes de despedida que se...

NOTICIAS

Los agresores bajaron de un auto, se identificaron y ejecutaron a la víctima delante de un amigo.

NOTICIAS

La reflexión del filósofo fue utilizada como base para la educación contemporánea y sigue siendo referencia hasta el día de hoy.