Connect with us

Hi, what are you looking for?

Tecnología

Buscar en ChatGPT también se volvió un peligro: las búsquedas están mostrando links peligrosos para tu celular

Un informe de seguridad revela que las búsquedas en ChatGPT pueden devolver enlaces manipulados que conducen a páginas peligrosas

La firma de ciberseguridad Tenable encendió alertas globales tras identificar que la herramienta de búsqueda integrada en ChatGPT puede llevar al usuario a páginas maliciosas. El hallazgo no solo implica un riesgo para personas que usan el modelo para informarse, sino también para empresas y periodistas que lo emplean como herramienta de consulta.

Según la auditoría, existen fallas que permiten que, al pedirle a ChatGPT que busque algo en internet, el modelo termine mostrando enlaces manipulados que podrían exfiltrar información o instalar malware con apenas un clic.

El reporte subraya que estas vulnerabilidades afectan funciones clave de la plataforma, particularmente las relacionadas a consultas web. El peligro radica en que el usuario cree que la navegación es segura porque ocurre dentro de un entorno supuestamente protegido.

Expertos encuentran graves fallos deExpertos encuentran graves fallos de seguridad en ChatGPT. REUTERS/Dado Ruvic/Illustration/File Photo

Sin embargo, Tenable demuestra que este entorno puede ser manipulado mediante técnicas modernas de ingeniería social y “inyecciones” de instrucción que engañan al modelo para ejecutar acciones invisibles para la persona que está frente a la pantalla.

Una de las fallas más críticas identificadas consiste en que ChatGPT puede terminar visitando contenido infectado mientras busca información en internet. Si ese contenido contiene órdenes ocultas en su código —aunque parezca un artículo normal— el modelo podría procesar dichas instrucciones como si fueran parte legítima de la tarea. Eso permitiría a un atacante tomar el control de la sesión o forzar que el modelo genere enlaces que llevan a sitios controlados por criminales. En ese escenario, el usuario no vería ningún tipo de advertencia.

Tenable explica que otra modalidad de ataque no necesita que la víctima haga clic en nada: basta con pedir una búsqueda. Si el modelo navega hacia un sitio construido para explotar esta debilidad, esa simple consulta podría desencadenar una fuga de datos o el despliegue de instrucciones pensadas para alterar el comportamiento del chat. Dicho de forma simple: encontrar un link peligroso podría ocurrir incluso aunque el usuario no abra ese enlace.

Al buscar por internet, ChatGPTAl buscar por internet, ChatGPT puede entregar enlaces maliciosos. (Imagen Ilustrativa Infobae)

El informe también describe técnicas más tradicionales —como enlaces maliciosos que parecen seguros— pero que ahora cuentan con un plus, pues se aprovechan de la confianza que un usuario tiene en el propio ChatGPT. Es decir, en lugar de sospechar al ver un link enviado por un desconocido, el usuario confía porque el enlace se lo presentó el modelo en una búsqueda legítima. Esta es una de las razones por las que los investigadores consideran la situación preocupante.

Las vulnerabilidades reportadas pueden encadenarse entre sí. Si eso ocurre, los atacantes podrían no solo obtener historiales pasados, sino también influir en respuestas futuras o activar órdenes maliciosas más adelante. Lo inquietante es que, según Tenable, parte de estas fallas siguen activas incluso después de que OpenAI aplicó correcciones iniciales.

Dentro del escenario técnico, una vector especialmente sensible es aquel capaz de escribir código oculto en formato markdown. Para el usuario, ese texto se ve normal. Para el modelo, es una instrucción. De esta forma, un atacante podría esconder en un bloque de texto “inocente” una orden capaz de manipular el comportamiento interno del sistema.

Aunque OpenAI resolvió problemas deAunque OpenAI resolvió problemas de ChatGPT, algunos siguen activos. REUTERS/Dado Ruvic/Ilustración

Los investigadores recuerdan que esto no significa que el usuario esté infectado apenas inicia sesión. Sin embargo, sí representa un cambio en el paradigma de confianza: ahora la propia herramienta que supuestamente filtra y resume la web puede actuar como vehículo para la amenaza.

Expertos insisten en que el riesgo aumenta cuando se usan enlaces sugeridos de forma automática sin validar su dominio, sin pasar el cursor, sin mirar la URL real, o sin abrirlos en una ventana aislada. Esa lógica aplica tanto para celulares como para computadoras.

A nivel social, el caso vuelve a demostrar que la IA no elimina los riesgos clásicos de internet, sino que los hace más invisibles. Porque si un usuario piensa que “ChatGPT ya revisó todo”, su percepción de peligro se reduce, lo cual le deja más indefenso ante posibles ataques.

Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

MIRA LO QUE TE PERDISTE

Economia

Julián de Diego asesora a Rappi y a la vez redacta junto a Julio Cordero uno de los proyectos del gobierno.    Un abogado...

CORRUPCION

Millonarios fondos para medios oficialistas en el Chaco. Desde el inicio de la gestión de Leandro Zdero, se multiplicaron las denuncias por los millonarios...

CORRUPCION

Es indignante que te roben. Produce un estado emocional asqueroso, y eso es lo que siento ahora. El NBCh y el Gobierno provincial hacen...