La inteligencia artificial  no tiene que ser perfecto o tener inteligencia a nivel humano para ser útil.

Por Germán López

The New York Times

Oficinas de OpenAI en San Francisco. Jim Wilson/The New York Times

Ahorrando tiempo

Para la mayoría de las personas, ChatGPT es más un juguete que una herramienta. Puede hacerle preguntas tontas, pero no es lo suficientemente robusto como para escribir notas de trabajo o ensayos escolares de alta calidad. Sin embargo, las personas detrás de los programas de inteligencia artificial creen que estos sistemas algún día se convertirán en una parte habitual de nuestras vidas, ayudándonos en las rutinas diarias.

¿Cómo? Algún tipo de I.A. marcará el comienzo de esa realidad no porque sea perfecto o muestre inteligencia a nivel humano. Simplemente realizará una tarea mejor de lo que la gente puede ahora. Todavía no sabemos qué es esa tarea o la pieza de A.I. será. Tal vez sea una tarea que parece pequeña pero que, sin embargo, lleva tiempo, como escribir una respuesta por correo electrónico u organizar un cronograma. O podría ser más grande, como conducir un automóvil. De cualquier manera, el cambio será suficiente para que el público lo adopte ampliamente.

Las cámaras de los teléfonos son una analogía útil. Por lo general, toman fotografías de menor calidad que las cámaras independientes. Pero la mayoría de la gente los ha adoptado porque son muy convenientes, están empaquetados en dispositivos que la mayoría de nosotros llevamos a todas partes. Ese tipo de utilidad es una barra mucho más baja para A.I. conocer que crear el tipo de I.A. que todo lo sabe y todo lo hace. representada en la ciencia ficción.

Entonces, la adopción generalizada podría ayudar a A.I. mejorar rápidamente aún más. La tecnología se basa en datos. Y cuantas más personas usen la IA, más datos podrán recopilar los desarrolladores para adaptar sus programas. El boletín de hoy analizará cómo podría comenzar ese futuro.

Mejor, no perfecto

Hay una manera concisa de describir cómo progresa la tecnología: tiene que ser mejor, no perfecta.

Un ejemplo es la I.A. que puede codificar. Las personas que no saben codificar ya usan bots para producir juegos completos, como explicaron mis colegas Francesca Paris y Larry Buchanan. Y algunos programadores profesionales usan A.I. para complementar su trabajo.

La tecnología actual es imperfecta. Puede cometer errores y tiene problemas con tareas o programas más complicados. Pero lo mismo es cierto para los codificadores humanos. “Los humanos no son perfectos en muchas de las tareas que realizan”, dijo Helen Toner, directora del Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown.

Según este estándar, los bots de codificación no tienen que ser impecables para reemplazar el trabajo existente. Simplemente tienen que ahorrar tiempo. Un codificador humano podría usar ese tiempo adicional para mejorar el trabajo de la IA, generar ideas para otros programas o hacer algo completamente diferente.

Consecuencias no deseadas

AI. los resultados no siempre serán buenos. Con las cámaras de los teléfonos, la gente sacrifica la calidad de las fotos por conveniencia. Las compensaciones podrían ser más importantes con la inteligencia artificial.

Considere una I.A. que sepa escribir bien. Al principio, la calidad puede ser inferior a la escritura que puede hacer usted mismo. Aún así, como una IA de codificación, podría darle tiempo que podría usar para afinar el borrador, concentrarse en la investigación o completar una tarea diferente.

Pero a este bot también podría no importarle algunas cualidades que los humanos valoran. Tal vez descubra falsedades que algunos escritores no detectarán antes de publicar en línea. O los malos actores podrían usar A.I. para crear y distribuir desinformación bien escrita de manera más eficiente.

En otras palabras, qué I.A. puede no alinearse con los objetivos de sus creadores o usuarios. «Es una tecnología muy general que se utilizará para muchas cosas», Katja Grace, una A.I. investigador de seguridad, dijo. “Por lo tanto, es mucho más difícil anticipar todas las formas en que podría estar entrenándolo para hacer algo que podría ser dañino”.

Aquí hay un ejemplo del mundo real: Ted Rall, un caricaturista político, recientemente le pidió a ChatGPT que describiera su relación con Scott Stantis, otro caricaturista. Sugirió falsamente que Stantis había acusado a Rall de plagio en 2002 y que ambos tenían una disputa pública. Nada de esto sucedió.

Pero la I.A. actual. Las tecnologías frecuentemente producen este tipo de cuentos fantásticos, lo que los expertos llaman alucinaciones, cuando se les pregunta sobre personas o eventos reales. Los expertos no están seguros de por qué. Una posible explicación es que estos sistemas están programados principalmente para producir escritura conversacional convincente, no para distinguir la realidad de la ficción. Como A.I. similar reemplaza las tareas humanas o las tecnologías actuales (como los motores de búsqueda), las falsedades podrían inducir a error a muchas más personas.

Crecimiento exponencial

AI. se está desarrollando increíblemente rápido. El poder de cómputo detrás de la tecnología ha crecido exponencialmente durante décadas y los expertos esperan que continúe haciéndolo. Tan impresionante como es GPT-4, plausiblemente podríamos obtener A.I. programas que son muchas veces más poderosos en el transcurso de los años.

Esta tecnología se está desarrollando tan rápidamente que los legisladores y otros reguladores no han podido mantenerse al día. Más de 1000 líderes tecnológicos e investigadores pidieron recientemente una pausa en la IA. desarrollo para establecer normas de seguridad. Hasta el momento, no hay señales de que esas llamadas hayan sido atendidas. En cambio, empresas tecnológicas como Google y Microsoft se han resistido a la disidencia interna contra el lanzamiento de su A.I. programas y los he hecho llegar al público lo más rápido posible.

Comentarios
Difundelo
Permitir Notificaciones OK No gracias