El Reino Unido está pensando en implementar Chips con IA a los criminales

 Santo Domingo, 05 de julio de 2025- ¿Te imaginas que el futuro de la justicia penal no sea una celda fría y gris, sino un chip instalado bajo tu piel que sabe cada paso que das y cada pensamiento que pasa por tu mente? No, no es el tráiler de un nuevo episodio de Black Mirror, es la realidad que empieza a tomar forma en Reino Unido bajo el gobierno de Keir Starmer.

El plan: reducir la sobrepoblación carcelaria implantando chips subcutáneos con inteligencia artificial (IA) en personas condenadas por delitos. Estos dispositivos prometen rastreo en tiempo real, predicción de crímenes futuros y, en teoría, más “control” sobre quienes cumplen condenas fuera de prisión. Pero, ojo, detrás de esa aparente eficiencia tecnológica, se esconde un cóctel explosivo de dilemas éticos, legales y sociales.

 El Gran Hermano ya no observa… ahora te invade

Instalar un chip bajo la piel para monitorear a los condenados suena a película de ciencia ficción… hasta que recuerdas que en 2025 ya hablamos con IA a diario. Estos chips no solo permitirían rastrear cada movimiento, sino también predecir comportamientos futuros.

Organizaciones como Foxglove y Liberty no tardaron en alzar la voz: estamos ante una violación brutal de la privacidad y los derechos humanos. Además, la ONU y la UNESCO advierten que estas tecnologías podrían incluso “leer” y manipular procesos mentales, vulnerando la identidad y la autonomía personal. Una especie de oráculo invasivo que deja chiquito al polígrafo más sofisticado.

 IA: la balanza rota de la justicia

¿Y la imparcialidad? Bien, gracias. La IA no es la diosa de la justicia; es un sistema que aprende de datos… y esos datos suelen estar cargados de prejuicios. Ejemplos sobran: desde el sistema COMPAS en EE. UU., acusado de racismo, hasta PredPol en Reino Unido, criticado por cebarse en barrios pobres y comunidades racializadas.

¿Queremos de verdad que algoritmos entrenados con sesgos históricos decidan si alguien puede reintegrarse a la sociedad o merece vigilancia intensiva? Spoiler: el final de esa película no pinta bien.

 La humanidad en modo automático

Automatizar la supervisión de condenados puede sonar práctico. Pero, ¿qué pasa cuando la IA sustituye la empatía humana por decisiones automáticas? La deshumanización del sistema no solo diluye la responsabilidad, sino que socava la confianza pública. Si la IA se equivoca (y ya sabemos que puede hacerlo), ¿a quién reclamamos? ¿A un programador en Silicon Valley? ¿A un algoritmo sin rostro?

 ¿Justicia o negocio?

Detrás de estos chips están nombres como Google, Amazon y Palantir. Y no porque se hayan vuelto fans de la justicia social, sino porque la privatización del sistema penitenciario es un mercado jugoso. Este modelo abre la puerta a una “justicia de paga”, donde el control estatal se fusiona con intereses corporativos, arrasando con la poca privacidad que aún nos queda.

 La confianza, en cuidados intensivos

Si la población ya desconfía de la justicia tradicional, imagina cuando descubran que ahora un chip decide por ellos. La legitimidad y aceptación social de la IA en estos ámbitos podrían desplomarse como un castillo de naipes.

¿Estamos listos para un futuro sin humanidad?

Los chips con IA prometen eficiencia, pero sacrifican derechos fundamentales en el altar de la tecnología. La justicia se convierte en un experimento de laboratorio, y la libertad individual, en un souvenir del pasado.

Si no establecemos marcos regulatorios sólidos y supervisión humana estricta, podríamos terminar en una distopía digna de Orwell, donde todos somos sospechosos y la privacidad se vuelve un mito.

Porque al final, la pregunta no es si la tecnología puede hacerlo, sino si deberíamos dejar que lo haga.

Comentarios
Difundelo