El pionero de la IA, conocido como el “padrino” de esta tecnología, expuso sus temores sobre los riesgos de la automatización y los dilemas éticos
Geoffrey Hinton, una de las figuras más influyentes en el desarrollo de la inteligencia artificial (IA), nuevamente alzó la voz sobre los peligros de la tecnología que él mismo ayudó a crear. El “padrino de la IA”, como muchos lo llaman, compartió recientemente sus preocupaciones sobre el futuro de la humanidad en una era dominada por las máquinas inteligentes, en una presentación para el Vector Institute en YouTube.
Durante sus 10 años de trabajo en Google, formó parte del equipo de Google Brain, donde se dedicó a la investigación y desarrollo de la IA. Sin embargo, en mayo de 2023, decidió renunciar a su puesto en la compañía para poder “hablar libremente sobre los riesgos de la IA”.
Su preocupación radica en la velocidad vertiginosa con la que la IA está evolucionando y en la posibilidad de que supere la inteligencia humana, planteando riesgos existenciales para la humanidad. El científico computacional advierte sobre el mal uso deliberado de la IA por parte de actores maliciosos, el desempleo tecnológico a gran escala y el riesgo existencial de la inteligencia artificial general. “Me preocupa mucho si somos capaces de mantenernos al día con la IA, o si la IA simplemente va a tomar el control”, afirmó.
En sus propias palabras, Hinton describió la situación actual: “Hace como 20 años, la gente no estaba interesada en las redes neuronales, y ahora no les tienen suficiente miedo”. Esta cita refleja su creciente preocupación sobre la falta de conciencia pública sobre los riesgos potenciales de la IA.
El dilema de la conciencia
Uno de los temas centrales que Hinton analizó es si la inteligencia artificial puede llegar a ser consciente. Se pregunta si las máquinas, además de imitar la inteligencia humana, podrían realmente “pensar” y tener experiencias subjetivas como las nuestras. Es decir, si podrían sentir emociones, percibir el mundo a su manera o tener una especie de “mundo interior” propio. Hinton, basándose en sus investigaciones sobre el cerebro humano y las redes neuronales, cree que sí es posible que la IA desarrolle una forma de conciencia similar a la humana.
“Mucha gente piensa que hay una gran diferencia entre estas cosas y nosotros. Nosotros somos conscientes. Tenemos experiencia subjetiva. Estas cosas simplemente están ahí en una computadora. No tienen una experiencia subjetiva. Creo que eso está completamente equivocado”, sostuvo el científico, desafiando la visión tradicional de la conciencia.
Y argumentó que la conciencia no es algo mágico o místico, sino que surge de la complejidad de los procesos neuronales. Si la IA puede alcanzar un nivel de complejidad similar al del cerebro humano, entonces también podría desarrollar conciencia.
Asimismo, el desarrollo de modelos de lenguaje como ChatGPT ha sido impulsado por tecnologías como las redes generativas antagónicas (GAN) y los mecanismos de atención. Las GAN consisten en dos redes neuronales que compiten entre sí: una genera contenido (texto, imágenes, etc.) y la otra intenta distinguir entre el contenido real y el generado. Esta competencia constante permite a la IA aprender a generar contenido cada vez más realista.
Por otro lado, los mecanismos de atención permiten a la IA “enfocarse” en las partes más relevantes de la información que recibe, lo que ha mejorado significativamente su capacidad para comprender el lenguaje humano.
Estos avances en el procesamiento del lenguaje natural han llevado a la creación de sistemas de IA que pueden conversar, escribir historias e incluso generar código de programación, lo que plantea la pregunta de si estas máquinas realmente “entienden” lo que están haciendo o simplemente están imitando la inteligencia humana.
Hinton argumenta que estos modelos de lenguaje realmente entienden lo que están diciendo, y que la idea de que son simplemente “glorificados autocompletadores” es errónea.
“Si quieres hacer un autocompletado realmente bueno, entonces tienes que entender lo que se dijo”, enfatizó.
Computación digital vs. analógica
El “padrino” de la inteligencia artificial señaló que una de las claves para entender el futuro de la IA radica en la diferencia entre la computación digital y la analógica. Mientras que la primera, que es la base de la mayoría de las computadoras actuales, se basa en la manipulación de bits discretos (ceros y unos), la otra utiliza señales continuas que pueden variar en intensidad.
En ese sentido, Hinton cree que la computación digital es inherentemente ineficiente en comparación con la computación analógica, que es la forma en que funciona el cerebro humano. “¿Qué es lo que es tan increíblemente más eficiente en el uso de la energía?”, se preguntó, reflexionando sobre las limitaciones de la computación digital. Si la IA pudiera aprovechar la eficiencia de la computación analógica, su capacidad para superar la inteligencia humana podría acelerarse drásticamente.
Hinton explicó esta diferencia con la siguiente analogía: “Cuando ejecutas un modelo de lenguaje grande, estás usando mucha energía. Cuando lo entrenas, probablemente estás usando megavatios porque los estás ejecutando en muchas GPU diferentes. Nosotros funcionamos con, digamos, 30 vatios. En comparación, el cerebro humano es increíblemente eficiente en el uso de la energía. ¿Cómo logra el cerebro hacer tanto con tan poca energía?”
Un llamado a la responsabilidad
Hinton advierte sobre la necesidad de un desarrollo responsable de la IA, con un enfoque en la seguridad y la ética. Teme que la competencia entre las grandes empresas tecnológicas por dicho dominio pueda llevar a una carrera armamentista, con consecuencias impredecibles. Esta preocupación es compartida por otros expertos: en marzo de 2023, más de 1.000 científicos firmaron una carta pidiendo una pausa de seis meses en el desarrollo de la IA, argumentando que esta tecnología plantea “profundos riesgos a la sociedad y a la humanidad”.
“Si estas cosas se vuelven más inteligentes que nosotros, van a ser muy buenas en la manipulación, y no estamos muy seguros de que vayamos a poder controlarlas”, advierte Hinton, instando a la colaboración entre los líderes del sector para evitar un futuro distópico.
Hinton cree que es crucial establecer lineamientos de seguridad y cooperación entre las empresas que compiten en el uso de la IA para evitar los peores escenarios. Además, hace un llamado a la investigación urgente en seguridad de la IA para descubrir cómo controlar los sistemas que son más inteligentes que los humanos.
En cuanto a la regulación, el experto propone una medida concreta: “Si quieres regulaciones, la regulación más importante sería no liberar el código fuente de los grandes modelos. Es una locura liberar el código fuente de estos grandes modelos, porque los malos actores pueden entonces ajustarlos para todo tipo de cosas malas”.
El futuro incierto
El panorama que pinta Hinton es complejo y desafiante. La IA tiene el potencial de transformar la sociedad de maneras inimaginables, pero también conlleva riesgos que no podemos ignorar. La automatización del trabajo, la propagación de información falsa y la concentración de poder son solo algunos de los desafíos que hay por afrontar.
Vale destacar que la IA podría ser utilizada para fines maliciosos, como la vigilancia masiva o la creación de armas autónomas. También podría exacerbar la desigualdad social, concentrando la riqueza en manos de unos pocos y dejando a muchos sin trabajo.
Los sistemas de IA también pueden perpetuar o amplificar los sesgos existentes en los datos con los que se entrenan, lo que lleva a la discriminación en áreas como la contratación, los préstamos y la justicia penal. La falta de transparencia en algunos sistemas de IA dificulta la comprensión de cómo toman decisiones, lo que genera desconfianza y dificulta la rendición de cuentas. En tanto, la dependencia excesiva de estos mecanismos podría llevar a una disminución de las habilidades humanas, como el pensamiento crítico y la creatividad.
Algunos expertos, como Eliezer Yudkowsky, advierten que la IA podría incluso causar inestabilidad política al facilitar la manipulación de los procesos democráticos y generar una catástrofe a escala mundial. Estos riesgos potenciales subrayan la necesidad de un enfoque cauteloso y responsable.
“Me preocupa mucho que la IA se apodere de muchos trabajos rutinarios… Va a haber un gran aumento de la productividad, lo que lleva a un gran aumento de la riqueza, y si esa riqueza se distribuyera equitativamente, sería genial, pero no va a ser así”, expresó Hinton, preocupado por el impacto de la IA en el mercado laboral.
A pesar de sus advertencias, Hinton no pierde la esperanza. Cree que la IA puede ser una fuerza para el bien si se desarrolla con responsabilidad y se utiliza para resolver los grandes problemas de la humanidad.
“La IA no es un capricho, es nuestro futuro”, afirma Hinton, instando a la sociedad a tomar conciencia de la importancia de esta tecnología al servicio del progreso humano.
Ante este panorama incierto, Hinton cree que es crucial tomar medidas para mitigar los riesgos de la IA. Algunas de las posibles soluciones incluyen la regulación gubernamental, la cooperación internacional y la investigación. También, se ha planteado la posibilidad de implementar una renta básica universal para compensar la pérdida de empleos debido a la automatización.
Las palabras de Hinton, como pionero y ahora crítico de la IA, advierten sobre la necesidad de un análisis crítico del desarrollo de esta tecnología. No solo ilumina su potencial, sino también los peligros que acechan si no se maneja con responsabilidad.
Un legado imborrable
Geoffrey Hinton, un británico-canadiense con una brillante carrera en ciencias cognitivas e informática, ha sido pionero en el desarrollo de las redes neuronales artificiales, la tecnología que impulsa la IA moderna.
Sus investigaciones sobre el aprendizaje profundo, las máquinas de Boltzmann y las representaciones distribuidas han revolucionado el campo y le han valido el reconocimiento mundial, incluyendo el Premio Turing en 2018, considerado el “Nobel de la computación”.
En 2024, Hinton recibió el Premio Nobel de Física junto con John J. Hopfield por “descubrimientos e invenciones relevantes que permiten el aprendizaje automático con redes neuronales artificiales”, consolidando aún más su lugar como un gigante en el campo de la IA.
De igual modo, ha investigado cómo el daño cerebral se vincula con las redes neuronales artificiales, descubriendo sorprendentes paralelismos entre los efectos de las lesiones cerebrales en seres humanos y las fallas en estos sistemas digitales. Este estudio revolucionario no solo ha profundizado en el conocimiento sobre la mente humana, sino que también ha establecido las bases para crear inteligencias artificiales más fuertes y adaptables.