La IA pronto será más inteligente que los humanos
Expertos advierten que muy pronto se creará una inteligencia artificial general, la cual suele definirse como “un sistema de IA de uso general que puede hacer casi todas las tareas cognitivas que puede hacer un humano”.
Por Kevin Roose
The New York Times
Kevin Roose es un columnista de tecnología y es uno de los presentadores de Hard Fork, un pódcast de tecnología de The New York Times.
A continuación, comentaré algunos puntos sobre la inteligencia artificial (IA):
Creo que, en los últimos años, los sistemas de IA han empezado a superar a los humanos en una serie de ámbitos —matemáticas, programación y diagnóstico médico, por nombrar algunos— y que cada día son mejores.
El Times Una selección diaria de notas en español que no encontrarás en ningún otro lugar, con eñes y acentos. Get it sent to your inbox.
Creo que muy pronto —probablemente en 2026 o 2027, pero es posible que tan pronto como este año— una o más empresas de IA afirmarán que han creado una inteligencia artificial general (AGI, por su sigla en inglés), la cual suele definirse algo así como “un sistema de IA de uso general que puede hacer casi todas las tareas cognitivas que puede hacer un humano”.
Creo que cuando se anuncie una AGI, habrá debates sobre definiciones y discusiones sobre si cuenta o no como una AGI “real”, pero que en su mayor parte no importarán, porque el punto en un sentido más amplio —que estamos perdiendo nuestro monopolio sobre la inteligencia a nivel humano y pasando a un mundo con sistemas de IA muy potentes— será cierto.
Creo que, durante la próxima década, una potente IA generará billones de dólares en valor económico e inclinará la balanza del poder político y militar hacia los países que la controlen… y que la mayoría de los gobiernos y las grandes empresas ya lo consideran obvio, como demuestran las enormes sumas de dinero que están invirtiendo para llegar ahí primero.
Creo que la mayoría de las personas e instituciones no están preparadas en absoluto para los sistemas de IA que existen hoy en día, por no hablar de los más potentes, y que no existe ningún plan realista a ningún nivel de gobierno para mitigar los riesgos o captar los beneficios de estos sistemas.
Creo que los escépticos empedernidos de la IA —que insisten en que el progreso es tan solo una cortina de humo y que descartan la AGI como una fantasía delirante— no solo se equivocan en cuanto a los méritos, sino que le están dando a la gente una falsa sensación de seguridad.
Creo que, independientemente de si piensas que la AGI será genial o terrible para la humanidad —y, sinceramente, puede que sea demasiado pronto para asegurarlo—, su llegada plantea importantes cuestionamientos económicos, políticos y tecnológicos para los que en la actualidad no tenemos respuesta.
Creo que el momento adecuado para empezar a prepararse para la AGI es ahora.
Todo esto puede parecer una locura. Pero no he llegado a estas opiniones como un futurista soñador, un inversionista que exagera su cartera de IA o alguien que comió demasiados hongos alucinógenos y vio Terminator 2.
Llegué a ellas como un periodista que ha pasado mucho tiempo hablando con los ingenieros que construyen potentes sistemas de IA, los inversores que la financian y los investigadores que estudian sus efectos. Y he llegado a creer que lo que está ocurriendo con la IA ahora mismo es más grande de lo que la mayoría de la gente comprende.
En San Francisco, donde vivo, la idea de la AGI no es radical ni exótica. Aquí la gente habla de “sentir la AGI”, y construir sistemas de IA más inteligentes que los humanos se ha convertido en el objetivo explícito de algunas de las mayores empresas de Silicon Valley. Todas las semanas, me reúno con ingenieros y empresarios que trabajan en el ramo de la IA y me dicen que el cambio —el gran cambio, el cambio que sacudirá el mundo, el tipo de transformación que nunca hemos visto antes— está a la vuelta de la esquina.
ImageUn panorama de San Francisco, con altos edificios que llenan el horizonte al fondo y edificios residenciales más bajos en primer plano.
En San Francisco, donde tienen su sede destacadas empresas emergentes de IA, la gente habla de “sentir la AGI”.Credit…Mike Kai Chen para The New York Times
Yo también solía burlarme de la idea. Pero he llegado a creer que estaba equivocado. Algunas cosas me han convencido de tomarme más en serio el progreso de la IA.
La gente con información privilegiada está alarmada
Lo más desorientador de la industria actual de la IA es que las personas más cercanas a la tecnología —los empleados y ejecutivos de los principales laboratorios de IA— tienden a ser los más preocupados por lo rápido que está mejorando.
Esto es bastante inusual. En 2010, cuando cubría el auge de las redes sociales, nadie dentro de Twitter, Foursquare o Pinterest advertía que sus aplicaciones podrían causar un caos social. Mark Zuckerberg no estaba probando Facebook para encontrar evidencia de que pudiera utilizarse para crear nuevas armas biológicas o ejecutar ciberataques autónomos.
Pero, hoy en día, las personas que disponen de la mejor información sobre el progreso de la IA —la gente que construye potentes sistemas de IA, que tiene acceso a sistemas más avanzados de los que ve el público en general— nos dicen que el gran cambio está cerca. Las principales empresas se están preparando activamente para la llegada de la AGI y están estudiando propiedades de sus modelos que podrían ser aterradoras, como si son capaces de conspirar y engañar, a la expectativa de que se vuelvan más capaces y autónomos.
Sam Altman, director ejecutivo de OpenAI, ha escrito que “los sistemas que empiezan a apuntar a la AGI están a la vista”.
Demis Hassabis, director ejecutivo de Google DeepMind, ha declarado que la AGI está probablemente a “tres o cinco años de distancia”.
Dario Amodei, director ejecutivo de Anthropic (a quien no le gusta el término AGI, pero está de acuerdo con el principio general), me comentó el mes pasado que creía que estábamos a uno o dos años de tener “un gran número de sistemas de IA mucho más inteligentes que los humanos en casi todo”.
En el sentido de las manecillas del reloj, desde arriba a la izquierda: Dario Amodei, director ejecutivo de Anthropic; Sam Altman, director ejecutivo de OpenAI; Demis Hassabis, director ejecutivo de Google DeepMind; y Geoffrey Hinton, investigador pionero en inteligencia artificial.Credit…Massimo Berruti para The New York Times; Haiyun Jiang para The New York Times; Chloe Ellingson para The New York Times; Toby Melville/Reuters
Quizá deberíamos descartar estas predicciones. Al fin y al cabo, los ejecutivos del sector de la IA se benefician de inflar el entusiasmo por la AGI y podrían tener incentivos para exagerar la situación.
Pero muchos expertos independientes —como Geoffrey Hinton y Yoshua Bengio, dos de los investigadores de IA más influyentes del mundo, y Ben Buchanan, quien fue el principal experto en IA del gobierno de Biden— dicen cosas similares. Lo mismo señalan otros destacados economistas, matemáticos y funcionarios de seguridad nacional.
Para ser justos, algunos expertos dudan que la AGI sea inminente. Pero, incluso si ignoras a todos los que trabajan en empresas de IA o tienen intereses particulares en el resultado, siguen existiendo suficientes voces independientes creíbles que prevén plazos cortos para la AGI como para que debamos tomarlas en serio.
Los modelos de IA mejoran
Para mí, la evidencia de que los sistemas actuales de IA están mejorando con rapidez, de maneras que son bastante obvias para cualquiera que los utilice, es tan persuasiva como la opinión de los expertos.
En 2022, cuando OpenAI lanzó ChatGPT, los principales modelos de IA tenían problemas con la aritmética básica, solían fracasar en problemas de razonamiento complejo y a menudo “alucinaban” o inventaban hechos inexistentes. Los chatbots de aquella época podían hacer cosas impresionantes con las indicaciones adecuadas, pero nunca utilizarías uno para nada de importancia crítica.
Los modelos de IA actuales son mucho mejores. Ahora, los modelos especializados obtienen puntuaciones de nivel de medallistas en la Olimpiada Internacional de Matemáticas y los modelos de uso general se han vuelto tan buenos en la resolución de problemas complejos que hemos tenido que crear pruebas nuevas y más difíciles para medir sus capacidades. Las alucinaciones y los errores fácticos siguen ocurriendo, pero son más raros en los modelos más recientes. Y muchas empresas ya confían lo suficiente en los modelos de IA como para incorporarlos a funciones básicas de cara al cliente.
A medida que estas herramientas mejoran, se están volviendo útiles para muchos tipos de trabajo intelectual. Mi colega del Times Ezra Klein escribió hace poco que los resultados de la Investigación Profunda de ChatGPT, una función premium que produce complejos resúmenes analíticos, eran “al menos el promedio” de los investigadores humanos con los que había trabajado.
También he encontrado muchos usos para las herramientas de IA en mi trabajo. No utilizo la IA para escribir mis columnas, pero sí para muchas otras cosas: preparar entrevistas, resumir trabajos de investigación, crear aplicaciones personalizadas que me ayuden con las tareas administrativas. Nada de esto era posible hace unos años. Y me parece inverosímil que alguien que utilice estos sistemas regularmente para un trabajo serio pueda llegar a la conclusión de que han tocado techo.
Si en verdad quieres comprender cuánto ha mejorado la IA recientemente, habla con un programador. Hace uno o dos años, existían herramientas de programación con IA, pero su objetivo era más acelerar la labor de los programadores humanos que sustituirlos. Hoy en día, los ingenieros de software me dicen que la IA hace la mayor parte de la codificación real por ellos y que cada vez tienen más la sensación de que su trabajo consiste en supervisar los sistemas de IA.
Jared Friedman, socio de Y Combinator, una aceleradora de empresas emergentes, dijo hace poco que una cuarta parte del lote actual de las empresas emergentes de la aceleradora utilizaba IA para escribir casi todo su código.
“Hace un año, habrían construido su producto desde cero, pero ahora el 95 por ciento lo construye una IA”, comentó.
Prepararse de más es lo mejor
La mayoría de los consejos que he oído sobre cómo deben prepararse las instituciones para la AGI se reducen a cosas que deberíamos estar haciendo de todos modos: modernizar nuestra infraestructura energética, reforzar nuestras defensas de ciberseguridad, acelerar el proceso de aprobación de fármacos diseñados por la inteligencia artificial, redactar normativas para evitar los daños más graves de la inteligencia artificial, impartir capacitación en inteligencia artificial en las escuelas y dar prioridad al desarrollo social y emocional sobre las habilidades técnicas que pronto quedarán obsoletas. Todas ellas son ideas sensatas, con o sin AGI.
Algunos líderes del sector tecnológico están preocupados por la posibilidad de que los temores prematuros sobre la AGI nos lleven a regular la IA de manera demasiado agresiva. Pero el gobierno de Trump ha señalado que quiere acelerar el desarrollo de la IA, no ralentizarlo. Y se está invirtiendo tanto dinero para crear la próxima generación de modelos de IA —cientos de miles de millones de dólares, y más en camino— que parece poco probable que las principales empresas de IA frenen por voluntad propia.
Tampoco me preocupa que los individuos se preparen de más para la AGI. Creo que un riesgo más grande es que la mayoría de la gente no se percate de que una IA potente ya está aquí hasta que la tenga enfrente: cuando elimine su trabajo, la atrape en una estafa, le perjudique o a alguien a quien quiera. Esto es, a grandes rasgos, lo que ocurrió durante la era de las redes sociales, cuando no reconocimos los riesgos de herramientas como Facebook y Twitter hasta que fueron demasiado grandes y arraigadas como para cambiarlas.
Por eso creo que hay que tomarse en serio la posibilidad de una AGI, aunque no sepamos exactamente cuándo llegará ni qué forma adoptará.
Si lo negamos, o si simplemente no prestamos atención, podríamos perder la oportunidad de dar forma a esta tecnología cuando más importa.
The New York Times