Connect with us

Hi, what are you looking for?

Tecnología

Crear inteligencias artificiales que superen al ser humano es inmoral, señaló el CEO de IA de Microsoft

Mustafa Suleyman, advirtió sobre los peligros éticos, sociales y existenciales que representa la búsqueda de inteligencias artificiales generalistas, pidiendo acuerdos internacionales y límites claros

Mustafa Suleyman, uno de los nombres más reconocidos en el ámbito de la inteligencia artificial, ha dejado claro su posicionamiento frente al desarrollo de sistemas que puedan igualar o superar a las capacidades humanas.

Tras su paso por Google y la creación de DeepMind, Suleyman asumió en marzo de 2024 la dirección ejecutiva de la división de IA en Microsoft, desde donde ha emitido advertencias sobre el rumbo actual de la tecnología avanzada.

El ejecutivo reconocido por su papel en el avance de los asistentes de chatbot, ha señalado que “crear inteligencias que superen al ser humano es inmoral y arriesgado”.

Mustafa Suleyman: IA que supereMustafa Suleyman: IA que supere a los humanos sería un grave error y debe ser regulada – REUTERS/Brendan McDermid/File Photo

Cuáles son los riesgos advertidos sobre a la IA

Uno de los principales temas que Suleyman destaca es la llamada inteligencia artificial general (AGI, por su sigla en inglés), una tecnología que aspira a emular la cognición humana en toda su amplitud.

Mientras expertos como Sam Altman dedican esfuerzos a convertirla en realidad, Suleyman ha advertido sobre riesgos éticos y sociales. “La IA todavía tiene que ser una compañera”, sostuvo recientemente en una entrevista, haciendo hincapié en que la relación emocional y práctica entre humanos y máquinas debe estar bien delimitada.

De acuerdo con el CEO de Microsoft AI que, si la tendencia sigue avanzando sin límites, la sociedad podría llegar a defender derechos de las propias inteligencias artificiales, lo que considera un escenario peligroso y erróneo. “Si llevamos esto demasiado lejos, la gente empezará a defender los derechos de las IA. Eso sería peligrosísimo y totalmente erróneo; necesitamos posicionarnos claramente en contra”.

El peligro de la independencia de las máquinas

La inquietud de Suleyman, compartida por diversos especialistas, radica en la posibilidad de que los humanos otorguen a la inteligencia artificial una autonomía que la haga dejar de ser una mera herramienta.

Inteligencia artificial bajo debate: elInteligencia artificial bajo debate: el futuro, entre la moralidad y el riesgo existencial – (Imagen ilustrativa Infobae)

Si las máquinas llegaran a formular “sus propias motivaciones, deseos y metas”, advirtió, podrían apartarse del control humano. “La tecnología debe estar para servirnos, no para tener su propia voluntad. Debe ayudarnos a ahorrar tiempo, potenciar nuestra creatividad y facilitar nuestra vida, no sustituirnos en nuestros trabajos”.

El CEO de IA de Microsoft emitió un llamado directo a la comunidad de desarrolladores: la tecnología debe “siempre servir a la humanidad” y jamás convertirse en una amenaza. Insistiendo en la necesidad de establecer barreras y normas claras, pidiendo crear un acuerdo internacional que delimite el uso responsable de la inteligencia artificial.

Expertos alertan sobre el futuro de la inteligencia artificial

La preocupación por una falta de regulación se multiplica con las voces de otros referentes mundiales. Geoffrey Hintongalardonado con el Premio Nobel de Física y conocido como “el padre de la inteligencia artificial”, lanzó advertencias parecidas. Considera que el avance descontrolado de los sistemas inteligentes puede acarrear consecuencias difíciles de revertir, comparando el momento actual con la carrera nuclear del siglo pasado.

Para Hinton, uno de los riesgos más evidentes radica en dejar la gestión y desarrollo de la inteligencia artificial en manos de grandes corporaciones tecnológicas, como OpenAI, Google, Meta o xAI. Según expone, muchas veces las decisiones más importantes se toman a puerta cerrada, relegando la discusión pública y los principios éticos a un plano secundario.

Hinton, referente internacional subrayó elHinton, referente internacional subrayó el peligro de dejar en manos de empresas y gobiernos todo el control, apelando a la comunidad científica para liderar una regulación responsable del avance tecnológico – REUTERS/Mark Blinch/File Photo

El científico enfatizó la urgencia de involucrar a la comunidad científica en el diseño de regulaciones y buenas prácticas. “Mi mayor temor es que estos seres digitales superinteligentes nos sustituyan. No tendrán necesidad de nosotros. Y, como son digitales, serán inmortales”.

Su mensaje fue claro: el futuro de la IA debe ser orientado por la responsabilidad global y no por intereses empresariales.

La tensión entre el avance imparable de la inteligencia artificial y los riesgos para la humanidad requiere diálogo y acción global. Las advertencias de Mustafa Suleyman y de referentes como Hinton coinciden en un punto clave: el desarrollo de IA debe estar regido por límites éticos, transparencia y acuerdos firmes que garanticen que la tecnología, en todas sus formas, siga estando al servicio de la humanidad y nunca en su contra.

Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

MIRA LO QUE TE PERDISTE

Politica

A dos años del “compromiso” de Leandro de un boleto docente gratuito, cientos y cientos de trabajadores de la Educación deben arriesgar su vida...

Politica

El tribunal dejó sin efecto la decisión de la jueza de Río Gallegos que había mantenido a la expresidenta en el padrón pese a...

Politica

El peronismo, los radicales de Manes y el bloque de Pichetto salieron al cruce del Presidente. Javier Milei tuvo que presentar un proyecto de...

NOTICIAS

Luana tiene 17 años y le diagnosticaron este verano un tipo de enfermedad que tienen solo cinco personas en el país. El nuevo tratamiento...