La IA se dirige hacia algo más sorprendente que la inteligencia

Por Barbara Gail Montero

Montero es una profesora de filosofía que escribe sobre la mente, el cuerpo y la conciencia.

The New York Times

No hace mucho, la IA se hizo inteligente. Puede que algunos rechacen esta afirmación, pero el número de personas que dudan de la perspicacia de la IA es cada vez menor. Según una encuesta de YouGov de 2024, una clara mayoría de adultos estadounidenses afirma que las computadoras ya son más inteligentes que las personas o que lo serán en el futuro cercano.

Aun así, cabe preguntarse si la IA es realmente inteligente. En 1950, el matemático Alan Turing sugirió que esta es la pregunta equivocada, porque es demasiado vaga para merecer una investigación científica. En lugar de intentar determinar si las computadoras son inteligentes, argumentó, deberíamos ver si pueden responder a preguntas de una forma que no se pueda distinguir de la de los seres humanos. Consideraba esta prueba, ahora conocida como la prueba de Turing, no como un punto de referencia de la inteligencia de las computadoras, sino como un sustituto más pragmático de ese punto de referencia.

En lugar de suponer que definimos la inteligencia y luego preguntarnos si la IA cumple esa definición, hacemos algo más dinámico: interactuamos con una IA cada vez más sofisticada, y vemos cómo cambia nuestra comprensión de lo que cuenta como inteligencia. Turing predijo que, con el tiempo, “el uso de las palabras y la opinión general educada habrán cambiado tanto que se podrá hablar de máquinas que piensan sin esperar que se nos contradiga”.

Hoy hemos llegado a ese punto. La IA es un tipo de inteligencia de la misma manera en que la fotografía digital es un tipo de fotografía.

Y ahora la IA va camino de hacer algo aún más notable: volverse consciente. Esto ocurrirá del mismo modo que se hizo inteligente. A medida que interactuemos con una IA cada vez más sofisticada, desarrollaremos una concepción mejor y más inclusiva de la consciencia.

Podrías objetar que esto es un truco verbal, que estoy argumentando que la IA se hará consciente porque empezaremos a utilizar la palabra “consciente” para incluirla. Pero no hay ningún truco. Siempre existe un bucle de retroalimentación entre nuestras teorías y el mundo, de modo que nuestros conceptos se ven moldeados por lo que descubrimos.

Pensemos en el átomo. Durante siglos, nuestro concepto de átomo estuvo arraigado en una antigua noción griega de unidades indivisibles de la realidad. Todavía en el siglo XIX, físicos como John Dalton concebían los átomos como esferas sólidas e indivisibles. Pero tras el descubrimiento del electrón en 1897 y el del núcleo atómico en 1911, se produjo una revisión del concepto de átomo: de una entidad indivisible a una que puede ser descompuesta, un sistema solar en miniatura formado por electrones que orbitan alrededor de un núcleo. Y con nuevos descubrimientos vinieron nuevas revisiones conceptuales, que condujeron a nuestros complejos modelos mecánico-cuánticos del átomo actuales.

No se trataba de meros cambios semánticos. Nuestra comprensión del átomo mejoró con nuestra interacción con el mundo. Del mismo modo, nuestra comprensión de la consciencia mejorará con nuestra interacción con una IA cada vez más sofisticada.

Los escépticos podrían cuestionar esta analogía. Argumentarán que los griegos se equivocaron sobre la naturaleza del átomo, pero que nosotros no nos equivocamos sobre la naturaleza de la consciencia porque sabemos de primera mano lo que es la consciencia: la experiencia subjetiva interior. Un chatbot, insistirán los escépticos, puede informar que se siente feliz o triste, pero solo porque esas frases forman parte de sus datos de entrenamiento. Nunca sabrá cómo se sienten la felicidad y la tristeza.

Pero, ¿qué significa saber cómo se siente la tristeza? ¿Y cómo sabemos que es algo que una conciencia digital nunca podrá experimentar? Podemos pensar —y, de hecho, nos han enseñado a pensar— que los humanos tenemos un entendimiento directo de nuestro mundo interior, un entendimiento que no está mediado por conceptos que hemos aprendido. Sin embargo, después de aprender de Shakespeare que la pena de despedirse puede ser dulce, descubrimos nuevas dimensiones en nuestra propia experiencia. Gran parte de lo que “sentimos” nos lo enseñan.

La filósofa Susan Schneider ha argumentado que tendríamos motivos para considerar que una IA es consciente si un sistema informático, sin haber sido entrenado con ningún dato sobre la consciencia, informara que tiene experiencias subjetivas internas del mundo. Tal vez esto indicaría la existencia de conciencia en un sistema de IA. Pero es una vara muy alta, una que probablemente nosotros mismos no superaríamos. Nosotros también estamos entrenados.

A algunos les preocupa que, si la IA llega a ser consciente, merezca nuestra consideración moral: que tenga derechos, que ya no podamos utilizarla como queramos, que tengamos que evitar esclavizarla. Sin embargo, hasta donde yo sé, no hay ninguna implicación directa entre la afirmación de que una criatura es consciente y la conclusión de que merece nuestra consideración moral. O si la hay, al menos la inmensa mayoría de los estadounidenses parece no ser consciente de ello. Solo un pequeño porcentaje de los estadounidenses son vegetarianos.

Del mismo modo que la IA nos ha llevado a considerar que ciertos rasgos de la inteligencia humana son menos valiosos de lo que pensábamos (como la recuperación memorística de información y la velocidad), también la conciencia de la IA nos llevará a la conclusión de que no todas las formas de conciencia merecen consideración moral. O más bien, reforzará la opinión que muchos ya parecen sostener: que no todas las formas de conciencia son tan moralmente valiosas como la nuestra.

The new York Times

Comentarios
Difundelo