Estamos ante dos grandes cajas de Pandora: la IA y el cambio climático
Por Thomas L. Friedman
The New York Times
El diccionario Merriam-Webster señala que una “caja de Pandora” puede ser “cualquier cosa que parezca ordinaria, pero que puede producir resultados perjudiciales impredecibles”. Últimamente, he pensado mucho en las cajas de Pandora, porque los Homo sapiens estamos haciendo algo que nunca habíamos hecho: levantar las tapas de dos cajas gigantes de Pandora al mismo tiempo, sin tener ni idea de lo que podría salir de ahí.
Una de estas cajas de Pandora se denomina “inteligencia artificial” y la ejemplifican programas como ChatGPT, Bard y AlphaFold, los cuales son testigos de la capacidad de la humanidad para confeccionar por primera vez, y como si fuese la obra de un dios, algo que se acerca a la inteligencia general y supera por mucho la capacidad cerebral con la que evolucionamos de manera natural.
La otra caja de Pandora se llama “cambio climático” y con ella los humanos estamos por primera vez conduciéndonos, nuevamente, como si fuésemos unos dioses, de una época climática a otra. Hasta ahora, ese poder estaba limitado en gran medida a las fuerzas naturales relacionadas con la órbita de la Tierra alrededor del Sol.
Para mí, mientras levantamos las tapas al mismo tiempo, la gran pregunta es: ¿qué tipo de regulaciones y ética debemos implementar para manejar lo que salga gritando de las cajas?
Admitámoslo, no comprendimos cuánto se iban a usar las redes sociales para socavar los dos pilares de cualquier sociedad libre: la verdad y la confianza. Así que, si abordamos la inteligencia artificial generativa con la misma negligencia —si volvemos a seguir el imprudente mantra de Mark Zuckerberg en los albores de las redes sociales, “muévete rápido y rompe cosas”—, qué te puedo decir: vamos a romper cosas más rápido, con más fuerza y más profundidad de lo que nadie puede imaginar.
“Nos faltó imaginación cuando se desataron las redes sociales y luego no logramos responder con responsabilidad a sus consecuencias inimaginadas una vez que permearon las vidas de miles de millones de personas”, me dijo Dov Seidman, fundador y presidente de HOW Institute for Society y LRN. “Perdimos mucho tiempo —y nuestro camino— pensando de manera utópica en que solo podían salir cosas buenas de las redes sociales, al conectar a la gente y dándole voz. No podemos permitirnos fracasos similares con la inteligencia artificial”.
Así que existe “un imperativo urgente —tanto ético como regulatorio— para que estas tecnologías de inteligencia artificial solo se utilicen para complementar y elevar lo que nos hace singularmente humanos: nuestra creatividad, nuestra curiosidad y, en el mejor de los casos, nuestra capacidad para tener esperanza, ética, empatía, determinación y colaborar con otros”, agregó Seidman (miembro del consejo del museo que fundó mi mujer, Planet Word).
“El adagio de que un gran poder conlleva una gran responsabilidad nunca ha sido más cierto. No podemos permitirnos otra generación de tecnólogos que proclamen su neutralidad ética y nos digan: ‘Oye, solo somos una plataforma’, cuando estas tecnologías de inteligencia artificial están permitiendo tipos exponencialmente más poderosos y profundos de empoderamiento e interacción humana”.
Por estas razones, le pedí su opinión a James Manyika, quien dirige el equipo de tecnología y sociedad de Google, así como Google Research —donde se lleva a cabo gran parte de la innovación en inteligencia artificial—, sobre la promesa y el desafío de esta tecnología.
“Debemos ser audaces y responsables al mismo tiempo”, dijo.
“La razón para ser audaces es que, en muchos ámbitos distintos, la inteligencia artificial tiene el potencial de ayudar a la gente con las tareas cotidianas, de enfrentar algunos de los mayores desafíos de la humanidad —como, por ejemplo, la atención médica— y lograr nuevos descubrimientos e innovaciones científicos, así como mejoras de productividad que llevarán a una mayor prosperidad económica”.
Manyika agregó que lo hará “dándole acceso a gente de todas partes a la suma del conocimiento mundial: en su propia lengua, en su modo de comunicación preferido, por medio de texto, voz, imágenes o código” en un teléfono inteligente, la televisión, la radio o un libro electrónico. Mucha más gente podrá obtener la mejor ayuda y las mejores respuestas para mejorar su vida.
Sin embargo, Manyika agregó que también debemos ser responsables y citó varias inquietudes. En primer lugar, estas herramientas deben estar alineadas por completo con los objetivos de la humanidad. En segundo lugar, en las manos equivocadas, estas herramientas podrían hacer un daño enorme, tanto si hablamos de la desinformación como de cosas que se pueden falsificar a la perfección o del hackeo. (Los malos siempre son los primeros en adoptarlas).
Por último, “hasta cierto grado, la ingeniería va a la cabeza de la ciencia”, explicó Manyika. Es decir, ni siquiera las personas que construyen los llamados grandes modelos lingüísticos en los que se basan productos como ChatGPT y Bard entienden por completo cómo funcionan ni el alcance total de sus capacidades”. Manyika agregó que podemos diseñar sistemas de inteligencia artificial de una capacidad extraordinaria, a los que se les pueden enseñar unos pocos ejemplos de aritmética, un lenguaje poco común o explicaciones de chistes y luego, con una precisión asombrosa, pueden empezar a hacer muchas más cosas tan solo con esos fragmentos. En otras palabras, todavía no sabemos por completo cuántas cosas más, buenas o malas, pueden hacer estos sistemas.
Por lo tanto, necesitamos cierta regulación, pero debe hacerse con cuidado y de manera iterativa. La talla única no les quedará a todos.
¿Por qué? Bueno, si lo que más nos preocupa es que China supere a Estados Unidos en el ramo de la inteligencia artificial, debemos acelerar nuestra innovación en inteligencia artificial, no ralentizarla. Si queremos democratizar de verdad la inteligencia artificial, tal vez queramos que su código sea abierto. No obstante, el código abierto puede ser explotado. ¿Qué haría el grupo del Estado Islámico con el código? Así que debemos pensar en el control de armas. Si nos preocupa que los sistemas de inteligencia artificial agraven la discriminación, las violaciones de la privacidad y otros daños sociales divisivos, como lo hacen las redes sociales, debemos tener regulaciones ahora.
Si queremos aprovechar todas las mejoras de productividad que se esperan de la inteligencia artificial, debemos centrarnos en crear nuevas oportunidades y redes de seguridad para todos los asistentes jurídicos, investigadores, asesores financieros, traductores y las personas que trabajan en tareas de repetición que podrían ser remplazados hoy y tal vez los abogados y programadores que serían remplazados mañana. Si nos preocupa que la inteligencia artificial se vuelva superinteligente y empiece a definir sus propios objetivos, sin tener en cuenta el daño humano, debemos detenerla de inmediato.
Este último peligro es tan real que, la semana pasada, Geoffrey Hinton, uno de los diseñadores pioneros de los sistemas de inteligencia artificial, anunció que iba a abandonar el equipo de inteligencia artificial de Google. Hinton señaló que, en su opinión, Google estaba actuando de manera responsable en el despliegue de sus productos de inteligencia artificial, pero que quería tener la libertad para hablar sobre todos los riesgos. “Es difícil ver cómo se puede evitar que los malos la utilicen para cosas malas”, le dijo Hinton a Cade Metz, del Times.
Si sumamos todo, el resultado es que, como sociedad, estamos a punto de tener que decidir sobre algunas concesiones muy importantes mientras introducimos la inteligencia artificial generativa.
Y la regulación gubernamental por sí sola no nos salvará. Tengo una regla sencilla: mientras más rápido sea el ritmo del cambio y más poderes divinos desarrollemos los humanos, más importará todo lo antiguo y lento; todo lo que aprendiste en la escuela dominical o de dondequiera que tomes una inspiración ética, importará más que nunca.
Porque, mientras más modifiquemos la escala de la inteligencia artificial, mayor debe ser la modificación de la escala de la regla dorada: trata a los demás como quieras que te traten. Porque, debido a los poderes cada vez más divinos que nos estamos otorgando, ahora podemos afectarnos los unos a los otros más rápido, barato y profundo que nunca.
Sucede lo mismo con la caja de Pandora climática que estamos abriendo. Como explica la NASA en su sitio web: “En los últimos 800.000 años, ha habido ocho ciclos de glaciaciones y periodos más cálidos”. La última edad de hielo terminó hace unos 11.700 años y le dio paso a nuestra era climática actual —conocida como Holoceno (que significa “totalmente reciente”)—, la cual se caracteriza por tener estaciones estables que permitieron una agricultura estable, la construcción de comunidades humanas y, a final de cuentas, la civilización como la conocemos hoy.
“La mayoría de estos cambios climáticos se les atribuyen a variaciones muy pequeñas en la órbita de la Tierra que modifican la cantidad de energía solar que recibe nuestro planeta”, señala la NASA.
Bien, pues despídete de eso. Ahora hay un debate intenso entre los ecologistas —y los expertos en geología de la Unión Internacional de Ciencias Geológicas, la organización profesional responsable de definir las eras geológicas y climáticas de la Tierra— en torno a si los humanos hemos salido del Holoceno para entrar en una nueva era, llamada Antropoceno.
Ese nombre proviene “de ‘antropo’, que significa ‘hombre’, y ‘kainos’, que significa ‘nuevo’, porque la humanidad ha causado extinciones masivas de especies vegetales y animales, ha contaminado los océanos y ha alterado la atmósfera, entre otros impactos duraderos”, detalla un artículo publicado en Smithsonian Magazine.
Los científicos del sistema terrestre temen que esta era creada por el hombre, el Antropoceno, no tenga ninguna de las estaciones predecibles del Holoceno. La agricultura podría convertirse en una pesadilla.
Sin embargo, aquí es donde la inteligencia artificial podría ser nuestra salvadora: acelerando los avances en la ciencia de los materiales, la densidad de las baterías, la energía de fusión y la energía nuclear modular segura que permitan a los seres humanos gestionar los impactos del cambio climático que ahora son inevitables y evitar los que serían inmanejables.
No obstante, si la inteligencia artificial nos brinda un mecanismo para amortiguar los peores efectos del cambio climático —si, de hecho, la inteligencia artificial nos da una oportunidad—, será mejor que lo hagamos bien. Es decir, con regulaciones inteligentes para modificar con rapidez la escala de la energía limpia y con valores sostenibles a escala. Si no difundimos una ética de la conservación —una reverencia por la naturaleza y todo lo que nos da sin costo, como el aire y el agua limpios—, podríamos acabar en un mundo en el que la gente se sienta con derecho a conducir por la selva ahora que su Hummer es totalmente eléctrico. Eso no puede ocurrir.
En conclusión: estas dos grandes cajas de Pandora se están abriendo. Que Dios nos salve si adquirimos poderes divinos para partir el mar Rojo, pero no logramos modificar la escala de los Diez Mandamientos.
Fuente The New York Times