Empresas tecnológicas acuerdan combatir información electoral engañosa generada con IA
Varias de las empresas tecnológicas más importantes firmaron el viernes un pacto para adoptar voluntariamente “precauciones razonables” a fin de impedir que se utilicen herramientas de inteligencia artificial para enturbiar elecciones democráticas en diversas partes del mundo.
Directivos de Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI y TikTok se reunieron en la Conferencia de Seguridad de Múnich para anunciar un nuevo marco de trabajo sobre cómo responder a las deepfakes —imágenes falsas generadas con inteligencia artificial— que son utilizadas para engañar deliberadamente a los votantes. Otras 12 compañías, entre ellas X de Elon Musk, también firmarán el acuerdo.
“Todo el mundo reconoce que ninguna empresa tecnológica, ningún gobierno, ninguna organización de la sociedad civil por sí sola puede afrontar el advenimiento de esta tecnología y su posible uso nefario”, dijo Nick Clegg, presidente de asuntos globales de Meta —la empresa matriz de Facebook e Instagram— en una entrevista antes de la conferencia.
El acuerdo es en gran medida simbólico, pero se enfoca en imágenes, audios y video cada vez más realistas generados con IA “que falsean o alteran engañosamente la apariencia, voz o acciones de candidatos políticos, funcionarios electorales y otros participantes cruciales en una elección democrática, o que proporcionan información falsa a los votantes acerca de cuándo, dónde y cómo pueden votar legalmente”.
Las empresas no se comprometen a prohibir o borrar las deepfakes. En lugar de eso, el acuerdo esboza los métodos que usarán para intentar detectar y etiquetar el contenido engañoso generado por IA cuando sea creado o difundido en sus plataformas. Las compañías compartirán entre ellas los mejores métodos y proporcionarán “respuestas veloces y proporcionales” cuando ese contenido empiece a propagarse.
La vaguedad de los compromisos y la ausencia de requerimientos vinculantes probablemente ayudó a atraer a una amplia gama de empresas, pero algunos activistas decepcionados esperaban algo más concreto y firme.
“El lenguaje no es tan fuerte como uno podría haber esperado”, dijo Rachel Orey, directora adjunta sénior del Proyecto Elecciones en el Centro de Políticas Bipartidistas, un centro de investigación con sede en Washington, D.C. “Creo que deberíamos dar el crédito donde corresponde, y reconocer que las empresas sí tienen un interés en que sus herramientas no sean utilizadas para socavar elecciones libres e imparciales. Dicho lo anterior, se trata de algo voluntario y estaremos atentos a ver si lo cumplen”.
Clegg dijo que cada compañía “tiene, y con razón, su propio conjunto de políticas de contenido”.
“Esto no es intentar imponer una camisa de fuerza a todo el mundo”, comentó. “Y en cualquier caso, nadie en la industria cree que uno puede hacer frente a un paradigma tecnológico totalmente nuevo ignorando el problema e intentando resolver situaciones que surgen una y otra vez y detectando todo lo que crees que podría engañar a alguien”.
Varios dirigentes políticos de Europa y Estados Unidos también se sumaron al anuncio del viernes. La vicepresidenta de la Comisión Europea, Vera Jourova, dijo que si bien un acuerdo de este tipo no puede ser exhaustivo, “contiene elementos de gran impacto y muy positivos”. También pidió a sus colegas políticos asumir la responsabilidad de no utilizar las herramientas de inteligencia artificial de forma engañosa, y advirtió que la desinformación alimentada por la IA podría traer consigo “el fin de la democracia, no sólo en los Estados miembros de la UE”.
El acuerdo se alcanzó cuando más de 50 países se preparan para celebrar elecciones nacionales en 2024. Bangladesh, Taiwán, Pakistán y recientemente Indonesia ya tuvieron las suyas.
Ya ha habido intentos de interferir en elecciones por medio de contenido generado con IA. Un ejemplo de ello ocurrió cuando llamadas automáticas que imitaban la voz del presidente estadounidense Joe Biden intentaron disuadir a la gente de votar en las elecciones primarias de Nueva Hampshire el mes pasado.
Pocos días antes de las elecciones de Eslovaquia en noviembre, grabaciones de audio generadas con inteligencia artificial se hicieron pasar por un candidato que hablaba de planes para incrementar el precio de la cerveza y amañar las elecciones. Verificadores de datos rápidamente las catalogaron como falsas mientras se difundían por las redes sociales.
Los políticos también han experimentado con la tecnología, desde el uso de chatbots de IA para comunicarse con los votantes hasta la incorporación de imágenes generadas por IA a los anuncios.
El acuerdo insta a las plataformas a “prestar atención al contexto y, en particular, a salvaguardar la expresión educativa, documental, artística, satírica y política”.
Dice que las empresas se centrarán en la transparencia de sus políticas para con los usuarios, y que trabajarán para educar al público sobre cómo evitar ser engañado con imágenes falsas generadas con IA.
La mayoría de las compañías ya han dicho que están colocando salvaguardas a sus propias herramientas de inteligencia artificial generativa y que están trabajando para identificar y etiquetar los contenidos generados por IA, de modo que los usuarios de redes sociales sepan si lo que están viendo es real. Pero la mayoría de las soluciones que se han propuesto aún no han sido implementadas y las empresas se han visto presionadas para tomar más medidas.
Esa presión es mayor en Estados Unidos, donde el Congreso aún no ha aprobado leyes que regulen el uso de la IA en la política, dejando en gran medida que las empresas se autogobiernen.
La Comisión Federal de Comunicaciones de Estados Unidos confirmó recientemente que las grabaciones de voz generadas por IA en las llamadas automáticas eran ilegales, pero eso no incluye las deepfakes de audio cuando circulan en redes sociales o en anuncios de campaña.
Muchas empresas de redes sociales ya cuentan con políticas para disuadir la publicación de mensajes engañosos sobre procesos electorales, generados con IA o no. Meta señaló que elimina la información falsa sobre “las fechas, lugares, horas y métodos para votar, el empadronamiento, o la participación en el censo”, así como otras publicaciones falsas destinadas a interferir en la participación cívica de alguien.
Jeff Allen, cofundador del Integrity Institute y excientífico de datos de Facebook, comentó que el acuerdo parece un “paso positivo”, pero que de todas formas le gustaría que las empresas de redes sociales tomaran otras medidas para combatir la desinformación, como crear sistemas de recomendación de contenidos que no den prioridad a la interacción con las publicaciones por encima de todo.
Lisa Gilbert, vicepresidenta ejecutiva del grupo de defensa Public Citizen, alegó el viernes que el acuerdo “es insuficiente” y que las empresas de IA deberían “frenar tecnologías” como los generadores hiperrealistas de texto a video “hasta que existan salvaguardas sustanciales y adecuadas que nos ayuden a evitar muchos problemas potenciales”.
Además de las compañías que ayudaron a negociar el acuerdo del viernes, otros signatarios son los desarrolladores de chatbots Anthropic e Inflection AI; la startup de clonación de voz ElevenLabs; el diseñador de circuitos integrados Arm Holdings; las empresas de seguridad McAfee y TrendMicro; y Stability AI, conocida por crear el generador de imágenes Stable Diffusion.
La ausencia de otro popular generador de imágenes de IA, Midjourney, fue notable. La empresa, con sede en San Francisco, no respondió de momento a una solicitud de comentarios el viernes.
La inclusión de X —que no fue mencionada en un anuncio anterior sobre el acuerdo pendiente— fue una de las sorpresas del acuerdo. Musk redujo drásticamente los equipos de moderación de contenidos tras tomar control de la empresa antes conocida como Twitter, y se ha descrito a sí mismo como un “absolutista de la libertad de expresión”.
En un comunicado emitido el viernes, la directora general de X, Linda Yaccarino, dijo que “cada ciudadano y compañía tiene la responsabilidad de salvaguardar elecciones libres e imparciales”.
“X está dedicada a hacer su parte, a colaborar con sus homólogos para luchar contra las amenazas de la IA al tiempo que protege la libertad de expresión y maximiza la transparencia”, señaló.
AP