Geoffrey Hinton fue un pionero en inteligencia artificial. En 2012, el Dr. Hinton y dos de sus estudiantes de posgrado de la Universidad de Toronto crearon una tecnología que se ha convertido en la base intelectual de los sistemas de inteligencia artificial que las principales empresas de la industria tecnológica consideran clave para su futuro.

El lunes, sin embargo, se unió oficialmente a un creciente coro de críticos que dicen que estas empresas están corriendo peligro con su campaña agresiva para crear productos basados ​​en inteligencia artificial generativa, la tecnología que impulsa a los chatbots populares como ChatGPT.

El Dr. Hinton dijo que renunció a su trabajo en Google, donde había trabajado durante más de una década y se convirtió en una de las voces más respetadas en el campo, para poder hablar libremente sobre los riesgos del virus. dice, ahora lamenta el trabajo de su vida.

«Me consuelo con la excusa normal: si no lo hubiera hecho yo, alguien más lo habría hecho», dijo el Dr. Hinton durante una larga entrevista la semana pasada en el comedor de su casa en Toronto, a pocos pasos de donde está. y sus estudiantes hicieron su gran avance.

El viaje del Dr. Hinton desde el pionero de la IA hasta el apocalipsis marca un momento extraordinario para la industria tecnológica en su punto de inflexión más significativo en décadas. Los líderes de la industria creen que los nuevos sistemas de inteligencia artificial podrían ser tan importantes como la introducción del navegador web a principios de la década de 1990 y podrían generar avances en áreas que van desde la investigación de medicamentos hasta la educación.

Pero a muchos expertos de la industria les preocupa el temor de que estén liberando algo peligroso en la naturaleza. La IA generativa ya puede ser una herramienta para la desinformación. Pronto podría ser un riesgo laboral. En algún momento, dicen los mayores preocupados por la tecnología, podría ser un riesgo para la humanidad.

«Es difícil ver cómo se puede evitar que los malos actores lo usen para cosas malas», dijo el Dr. Hinton.

Después de que la startup OpenAI de San Francisco lanzara una nueva versión de ChatGPT en marzo, más de 1000 líderes tecnológicos e investigadores firmaron una carta abierta pidiendo una moratoria de seis meses en el desarrollo de nuevos sistemas porque la IA plantea «profundos riesgos para la sociedad». y la humanidad

Unos días después, 19 líderes actuales y anteriores de la Asociación para el Avance de la Inteligencia Artificial, una sociedad académica de 40 años, publicó su propia carta Advertencia de riesgo de IA Este grupo incluía a Eric Horvitz, director científico de Microsoft, que ha implementado la tecnología OpenAI en una amplia gama de productos, incluido su motor de búsqueda Bing.

El Dr. Hinton, a menudo llamado «el padrino de la IA», no firmó ninguna de estas cartas y dijo que no quería criticar públicamente a Google ni a otras empresas hasta que dejara su trabajo. El mes pasado le dijo a la compañía que renunciaría y el jueves habló por teléfono con Sundar Pichai, director ejecutivo de la empresa matriz de Google, Alphabet. Se negó a discutir públicamente los detalles de su conversación con el Sr. Pichai.

El científico jefe de Google, Jeff Dean, dijo en un comunicado: «Seguimos comprometidos con un enfoque responsable de la IA. Estamos continuamente aprendiendo a comprender los riesgos emergentes mientras innovamos audazmente».

El Dr. Hinton, un expatriado británico de 75 años, es un académico de toda la vida cuya carrera estuvo guiada por sus creencias personales sobre el desarrollo y el uso de la IA. En 1972, cuando era estudiante de posgrado en la Universidad de Edimburgo, el Dr. Hinton abrazó una idea llamada red neuronal. Una red neuronal es un sistema matemático que adquiere habilidades mediante el análisis de datos. En ese momento, pocos investigadores creían en ello. Pero se convirtió en el trabajo de su vida.

En la década de 1980, el Dr. Hinton era profesor de ciencias de la computación en la Universidad Carnegie Mellon, pero dejó la universidad y se fue a Canadá porque dijo que no estaba dispuesto a aceptar fondos del Pentágono. En ese momento, la mayor parte de la investigación de IA en los Estados Unidos fue financiada por el Departamento de Defensa. El Dr. Hinton se opone profundamente al uso de la inteligencia artificial en el campo de batalla, lo que él llama «soldados robot».

En 2012, el Dr. Hinton y dos de sus alumnos en Toronto, Ilya Sutskever y Alex Krishevsky, construyeron una red neuronal capaz de analizar miles de fotos y aprender a identificar objetos comunes, como flores, perros y automóviles.

Google gastó $ 44 millones para adquirir una empresa creada por el Dr. Hinton y sus dos alumnos. Y su sistema ha llevado a la creación de tecnologías cada vez más poderosas, incluidos nuevos chatbots como ChatGPT y Google Bard. El Sr. Sutskever luego se convirtió en científico jefe de OpenAI. En 2018, el Dr. Hinton y otros dos colaboradores de toda la vida recibieron el Premio Turing, a menudo denominado «el Premio Nobel de Computación», por su trabajo en redes neuronales.

Casi al mismo tiempo, Google, OpenAI y otras empresas comenzaron a crear redes neuronales que aprendían de cantidades masivas de texto digital. El Dr. Hinton pensó que era una forma poderosa para que las máquinas entendieran y generaran lenguaje, pero era inferior a la forma en que los humanos manipulan el lenguaje.

Luego, el año pasado, cuando Google y OpenAI crearon sistemas utilizando cantidades de datos mucho mayores, su perspectiva cambió. Todavía creía que los sistemas eran inferiores al cerebro humano en algunos aspectos, pero creía que eclipsaban la inteligencia humana en otros. «Tal vez lo que sucede en estos sistemas», dijo, «es en realidad mucho mejor que lo que sucede en el cerebro».

Según él, a medida que las empresas mejoran sus sistemas de inteligencia artificial, se vuelven cada vez más peligrosos. “Mira cómo era hace cinco años y cómo está ahora”, dijo sobre la tecnología de IA. “Toma la diferencia y distribúyela hacia adelante. Es aterrador».

Hasta el año pasado, dijo, Google actuó como el «administrador adecuado» de la tecnología, teniendo cuidado de no publicar nada que pudiera causar daño. Pero ahora que Microsoft ha mejorado su motor de búsqueda Bing con un chatbot, desafiando el negocio principal de Google, Google se apresura a implementar el mismo tipo de tecnología. Los gigantes tecnológicos están enfrascados en una competencia que podría ser imparable, dijo el Dr. Hinton.

Su preocupación inmediata es que Internet se inundará con fotos, videos y textos falsos, y la persona promedio «ya no podrá decir qué es real».

También teme que las tecnologías de inteligencia artificial finalmente alteren el mercado laboral. Hoy en día, los chatbots como ChatGPT tienden a complementar a los trabajadores humanos, pero podrían reemplazar a los asistentes legales, asistentes personales, traductores y otros que manejan tareas de memoria. “Elimina el trabajo pesado”, dijo. «Podría obtener más de eso que eso».

En última instancia, teme que las versiones futuras de la tecnología representen una amenaza para la humanidad porque a menudo aprenden un comportamiento inesperado a partir de la gran cantidad de datos que analizan. Esto se convierte en un problema, dijo, ya que las personas y las empresas permiten que los sistemas de inteligencia artificial no solo generen su propio código de computadora, sino que también ejecuten ese código por su cuenta. Y teme que llegue el día en que las armas verdaderamente autónomas, esos robots asesinos, se conviertan en realidad.

“La idea de que estas cosas podrían volverse más inteligentes que las personas, algunas personas lo creían”, dijo. “Pero la mayoría de la gente pensó que estaba muy lejos. Y pensé que estaba lejos. Pensé que era en 30 a 50 años o incluso más. Por supuesto, ya no pienso en eso.

Muchos otros expertos, incluidos muchos de sus estudiantes y colegas, dicen que esta amenaza es hipotética. Pero el Dr. Hinton cree que la carrera entre Google y Microsoft y otros se convertirá en una carrera global que no se detendrá sin algún tipo de regulación global.

Pero eso puede ser imposible, dijo. A diferencia de las armas nucleares, dijo, no hay forma de saber si las empresas o los países están trabajando en la tecnología en secreto. La mejor esperanza es que los mejores científicos del mundo colaboren en formas de controlar la tecnología. “No creo que deban escalar esto hasta que descubran si pueden controlarlo”, dijo.

El Dr. Hinton dijo que cuando la gente le preguntaba cómo podía trabajar en tecnología potencialmente peligrosa, parafraseaba a Robert Oppenheimer, quien dirigió el esfuerzo de EE. UU. para construir la bomba atómica: «Cuando ves algo que es técnicamente blando, sigue adelante y hazlo». .

Ya no dice eso.