Geoffrey Hinton, una de las figuras más influyentes en inteligencia artificial, advirtió que a la humanidad se le acaba el tiempo para prepararse ante máquinas capaces de superar nuestra inteligencia. En la reciente conferencia Ai4 en Las Vegas, señaló que ahora cree que la inteligencia artificial general, o IAG, podría llegar en una década.
Shirin Ghaffary, de Bloomberg News, abrió la charla con un comentario liviano sobre una pelea de boxeo entre robots y humanos que se organizó antes de la sesión. El humano ganó con facilidad, "por ahora", bromeó. Hinton sonrió ante la ocurrencia, aunque su expresión cambió cuando la conversación se centró en la gran pregunta que lo persigue en esta etapa de su carrera: ¿cuándo superará la IA a la mente humana?
"La mayoría de los expertos creen que entre cinco y veinte años", dijo. Su propia estimación cambió de forma drástica. "Antes decía que entre treinta y cincuenta. Ahora, podrían ser más de veinte años, o solo unos pocos", agregó.
Hinton no habla de simples avances. Imagina sistemas mucho más capaces que cualquier persona viva y duda que podamos controlarlos cuando lleguen.
Por qué el dominio humano sobre la IA no funcionará
En buena parte del mundo tecnológico, el futuro de la IA se plantea como una disputa por el control: los humanos deben conservar la ventaja. Para Hinton, esa es una ilusión. "Serán mucho más inteligentes que nosotros", advirtió. "Imaginá que estás a cargo de un jardín de infantes con chicos de tres años y trabajás para ellos. No les costaría mucho manejarse con vos si fueran más inteligentes", señaló.
Su propuesta rompe con el libreto habitual. En lugar de pelear por mantener el control, sostiene que deberíamos crear una IA que se preocupe por nosotros. Usa la analogía de una madre y su hijo: el más fuerte, comprometido de forma natural con la supervivencia del más débil. "Necesitamos madres IA en lugar de asistentes IA. Un asistente es alguien a quien podés despedir. Por suerte, no podés despedir a tu madre", dijo.
Eso implicaría incorporar "instintos maternales" en sistemas avanzados, una especie de impulso innato para proteger la vida humana. Hinton reconoce que todavía no sabe cómo lograrlo, pero insiste en que es una prioridad de investigación tan importante como aumentar la inteligencia pura. Subrayó que no se trata de hacer sistemas más inteligentes, sino de que se interesen por nosotros. Además, cree que esta podría ser una de las pocas áreas en las que los países realmente cooperen, porque ninguna nación quiere terminar gobernada por sus máquinas.
Incógnitas técnicas, posibilidades políticas
Hinton no cree que la cooperación dure demasiado. La carrera por la IA, sobre todo entre Estados Unidos y China, avanza a toda velocidad y es poco probable que alguna de las dos potencias baje el ritmo. Aun así, ve posible un acuerdo para limitar aplicaciones biotecnológicas peligrosas, como la creación de virus sintéticos, y para buscar formas de que los humanos puedan convivir con sistemas más poderosos.
Parte de su convicción de que la dominación no funcionará surge de cómo se desarrolla la IA. Los modelos digitales pueden compartir lo aprendido al instante con miles de copias. "Si la gente pudiera hacer eso en una universidad, vos tomás un curso, tus amigos otros, y todos lo sabrían todo", explicó. "Nosotros podemos compartir solo unos pocos bits por segundo. La IA puede intercambiar un billón de bits cada vez que se actualiza", remarcó.
Esa capacidad de aprendizaje colectivo podría permitir que la IA supere el progreso humano por amplios márgenes. Sumada a las enormes inversiones, Hinton duda que sea posible frenar el avance hacia la superinteligencia.
Límites de la regulación
Cuando le preguntaron si las normas podrían evitar los peores riesgos, Hinton fue tajante: "Si la regulación dice que no se debe desarrollar IA, eso no va a pasar". Apoya medidas de seguridad puntuales, en especial las que impidan que pequeños grupos fabriquen agentes biológicos peligrosos, pero considera que las pausas drásticas no son realistas.
Su frustración con la política estadounidense es evidente. Incluso propuestas simples, como obligar a los laboratorios de síntesis de ADN a detectar patógenos letales, se estancaron en el Congreso. "Los republicanos no colaborarían porque sería una victoria para Biden", lamentó.
Ganadores, perdedores y el estado de la investigación
Hinton dejó Google en 2023, según él, porque se sentía demasiado grande para las largas sesiones de depuración de código, pero también para poder hablar con más libertad sobre los peligros de la IA. Aun así, reconoce el mérito de varios laboratorios, como Anthropic y DeepMind, por tomarse en serio la seguridad. Le preocupa, sin embargo, el fuerte recorte a la financiación de la investigación básica en Estados Unidos, que considera el terreno donde germinan los avances más importantes. "El retorno de la inversión en investigación básica es enorme. Solo se recortaría si no importara el futuro a largo plazo", indicó.
Los laboratorios privados pueden tener un papel clave. Hinton los compara con los Laboratorios Bell en su mejor momento, aunque sostiene que las universidades siguen siendo la fuente más confiable de ideas transformadoras.
Optimismo cauteloso
A pesar de sus advertencias, Hinton encuentra motivos para la esperanza. Ve en la atención médica un área donde la IA podría marcar una diferencia decisiva. Con acceso a datos valiosos pero poco aprovechados, como estudios médicos e historiales clínicos, la IA podría ofrecer diagnósticos más rápidos, medicamentos más precisos y tratamientos personalizados para cada paciente.
En cuanto a eliminar por completo el envejecimiento, Hinton es escéptico. "Vivir eternamente sería un grave error. ¿Querés que el mundo esté gobernado por hombres blancos de 200 años?", preguntó con una sonrisa irónica.
Aun así, vuelve a su idea central: si logramos desarrollar una IA que cuide de verdad a sus "hijos" humanos, la especie no solo podría sobrevivir a la superinteligencia, sino también prosperar bajo su protección. "Sería maravilloso si logramos que funcionara", concluyó.