Icono del sitio ACDE Portal Empresa

Escudo democrático y el ataque de “manipuladores algorítmicos”

Escuchar este artículo

Prólogo

En artículos anteriores he fundamentado por qué no adhiero a la narrativa “psicotizante” según la cual todos seríamos víctimas potenciales de “algoritmos manipuladores” capaces de leernos la mente, anticipar nuestros deseos y, llegado el caso, torcer nuestras elecciones.

Este relato —seductor, cinematográfico, casi gótico— tiene más ficción que evidencia empírica.

Imaginemos ahora, por unos instantes, que a comienzos del Siglo XXI la “realeza” del marketing y la publicidad —herederos directos de aquellos magos de la Avenida Madison inmortalizados en Mad Men— se vio acosada por una minoría insoportable: los -analistas de datos-, esos advenedizos que con sus enfoques cuantitativos incomprensibles amenazaban con quitarles sus antiguos tronos y privilegios ….

Imaginemos también que, durante esta pequeña “guerra” sin reglas, alguien “filtró” oportunamente la historia de Cambridge Analytica: un relato con gran difusión, pero nunca del todo corroborado, pero que tuvo el mérito de devolverle al oficio, una nueva aura de “poder oscuro” y, con ella, la atención —y los presupuestos— de las grandes marcas.

Nadie verificó nunca esta historia, pero sostengo, sí, que la historia se difundió con un entusiasmo desmedido porque a demasiados actores les convenía.

A los medios, porque “los algoritmos eligieron presidentes” vende mejor que “millones de personas votaron lo que quisieron votar”.  A las plataformas, porque atribuirse poderes mágicos —aun siendo acusadas por ellos— es una forma extraña pero eficaz de marketing.

Y también a los propios analistas, porque elevaba el estatus intelectual de su disciplina.

Ahora bien, aclarado esto, conviene no caer en el extremo opuesto: Que el relato dominante sobre la manipulación algorítmica esté inflado no significa que no exista riesgo alguno.

Significa, más bien, que el riesgo verdadero estaría en otra parte —y que el reflector mediático, apuntando obsesivamente al hechizo del micro-targeting psicográfico, deja en una conveniente penumbra a los actores que sí erosionan, silenciosa y sistemáticamente, el debate público.

 

A esos actores ocultos los llamo Manipuladores Algorítmicos. No son brujos que adivinan nuestras preferencias para vendernos jabón o candidatos: son arquitecturas de incentivos —humanas, corporativas y técnicas— que premian la indignación sobre el matiz, la viralidad sobre la verdad y la reacción sobre la deliberación.

Su peligro no radica en que “manipulen” a cada uno de nosotros, sino en que colectivamente, degradan las condiciones mínimas para que una democracia funcione.

La distinción no es menor: mientras nos preocupamos por blindar al individuo contra una hipnosis improbable, dejamos sin defender el espacio común donde esos individuos se habitan.

Pero ahora, cuando pícaramente, algunos “magos” buscan aprovechar esta “genial” idea marketinera, para venderla a los políticos, la cosa adquiere una gravedad institucional mayor, y se pone mucho más seria …

 

El contexto

La democracia liberal se enfrenta hoy a un desafío existencial que no proviene de las barricadas y protestas, sino en las sombras de los servidores de datos y de las líneas de código.

Algunos “iluminados” han convencido a los políticos contemporáneos, que mediante al acceso completo e irrestricto a toda la información personal es posible lograr una consolidación lógica y construir una arquitectura decisional que manipule la voluntad ciudadana basada en el procesamiento masivo de datos y la estimulación neurocognitiva.

Empresas como Palantir Technologies, ofrece hoy la capacidad para integrar bases de datos heterogéneas en plataformas opacas (casi siempre aplicadas a objetivos de Inteligencia) sentando las bases de infraestructura para una posible alianza entre los “señores de la tecnología” y la nueva estirpe de políticos “borgianos”.

(Cualquier relación con los últimos acontecimientos en la Argentina, es pura coincidencia …)

Entonces, ante este riesgo, es imperativo activar la conciencia pública para articular socialmente una contra estrategia que permita devolver al ciudadano la soberanía sobre su propia conciencia y decisión política.

 

El diagnóstico: la anatomía del depredador

Para combatir al depredador, primero debemos entender su hábitat. Según la crónica de Giuliano da Empoli, la política actual está dominada por líderes “borgianos” (como Trump, Bukele o Milei) que utilizan el caos como activo estratégico y la sorpresa permanente como método de gobierno.

Estos actores han encontrado sus aliados naturales en algunos magnates de Silicon Valley; ambas especies comparten un desprecio por las reglas, una fe ciega en la velocidad y la convicción de que la realidad es maleable a través de los datos exprimidos por los algoritmos.

La infraestructura de este poder se pone en evidencia en herramientas como ImmigrationOS de Palantir, una plataforma de información capaz de cruzar datos tributarios, sanitarios y biométricos para crear perfiles personales sin precedentes.

Como si esto fuera poco, los marcos legales “débiles” respecto de la protección de datos personales, son un ambiente sumamente propicio para estos “ensayos” controlados …

Esta capacidad de “fusión de datos” no es neutral: se podría utilizar para alimentar una capa discursiva diseñada para “regular la temperatura” del debate público, explotando vulnerabilidades y hábitos inconscientes de los individuos.

El resultado es la creación de un “castillo de Kafka” digital, donde algoritmos opacos podrían tomar decisiones sobre la vida de los sujetos sin que estos puedan comprender los criterios aplicados, ni apelar los resultados o las decisiones.

 

Una contra estrategia en cinco frentes

La respuesta a esta amenaza no puede ser la tecnofobia ciega ni el aislamiento, sino la reconstrucción de las condiciones materiales para una decisión política libre.

Proponemos cinco estrategias de mitigación:

  1. Soberanía de datos y el derecho a la opacidad

El núcleo del poder de empresas como Palantir es la ruptura de las paredes entre las bases de datos públicas. La contra estrategia debe comenzar por restablecer estos límites.

Es fundamental prohibir legalmente los contratos de proveedor único (sole-source) para sistemas de fusión de datos gubernamentales, obligando a licitaciones competitivas con pliegos públicos.

Debemos elevar el hábeas data a un nivel activo: el ciudadano no solo debe saber qué datos tiene el Estado, sino qué inferencias algorítmicas se han derivado de ellos y qué decisiones se han tomado en consecuencia. La opacidad del algoritmo no puede ser un refugio para la arbitrariedad estatal.

 

  1. Auditoría algorítmica y el regreso a la responsabilidad pública

En el Estado de derecho, toda decisión administrativa debe tener un motivo comprobable de utilidad pública. Si un sistema de inteligencia artificial es incapaz de explicar por qué marcó a un ciudadano como un “riesgo policial” o por qué denegó un beneficio social, ese sistema es inherentemente incompatible con la democracia y no debe usarse.

Es urgente la creación de comisiones técnicas independientes con poder real para auditar algoritmos de uso público antes y durante su implementación, realizando tests obligatorios de sesgo racial, de género y socioeconómico. La carga de la prueba debe invertirse: ante una sospecha razonable de daño, el operador del sistema debe demostrar la ausencia de discriminación.

 

  1. Inoculación Cognitiva y Educación Cívica Digital

Si los depredadores operan por debajo del umbral de nuestra conciencia, la solución es elevar ese umbral.

Inspirándonos en la literatura de “inoculación cognitiva”, debemos implementar programas de “prebunking” masivos. Así como las campañas de salud pública nos alertan contra virus biológicos, las democracias deben exponer preventivamente a los ciudadanos a versiones “debilitadas” de las técnicas de manipulación que encontrarán en redes sociales, para que desarrollen anticuerpos críticos.

Esto requiere integrar en el currículo educativo la anatomía del “bucle del hábito” y la arquitectura de las plataformas, enseñando a los jóvenes a identificar cuándo una interfaz está diseñada para capturar su atención mediante la indignación o el miedo.

 

  1. Descentralización del espacio público e interoperabilidad

No habrá democracia sana mientras la conversación pública dependa de dos o tres plataformas cuyo modelo de negocio es la radicalización.

Debemos aplicar el derecho de competencia para romper estos monopolios y, crucialmente, exigir la interoperabilidad obligatoria. Un usuario debería poder migrar de una plataforma tóxica a una más ética sin perder su red de contactos, reduciendo así los “costes de salida” que hoy nos mantienen cautivos.

Asimismo, es vital el apoyo a infraestructuras digitales públicas y cooperativas (como “Fediverso”) y un blindaje financiero del periodismo de investigación independiente, especialmente, aquél que tenga como objetivo la verificación de la veracidad y el chequeo de las fuentes.

La infraestructura digital debe ser reconocida como un activo geopolítico y un bien público, no como el feudo de los señores de la guerra digital.

 

  1. Reconstrucción de los Amortiguadores Institucionales

Finalmente, debemos defender lo que Da Empoli llama “el partido de los justicieros”: la sensibilidad de quienes creen en las reglas, los plazos y la separación de poderes.

Los “depredadores” ven en las instituciones técnicas —como las agencias estadísticas, los tribunales superiores y los bancos centrales— obstáculos para su voluntad de poder. La defensa de estos “amortiguadores” debe ser una prioridad política absoluta.

Esto incluye la protección legal efectiva de los “whistleblowers” (denunciantes) dentro de las empresas de tecnología y las agencias de inteligencia, quienes son recursos democráticos clave en la lucha contra la opacidad algorítmica y los abusos de poder digital.

 

Conclusión: el acto de libre albedrío

Estamos en un cambio de época, una mutación profunda de las condiciones materiales de la deliberación política. Como señaló Henry Kissinger antes de su muerte, el riesgo es que las sociedades ya no sean capaces de interpretar el mundo en términos que tengan sentido para ellas, quedando subordinadas a una inteligencia artificial que las supera en poder explicativo, pero carece de conciencia moral.

El primer acto de resistencia contra los depredadores algorítmicos es, como diría William James, creer en la posibilidad de la libertad. Pero esa creencia debe traducirse en una arquitectura legal, técnica y social robusta.

El plazo para reconstruir estas condiciones se agota rápidamente. Si no actuamos ahora para limitar el poder de las plataformas y sus aliados políticos, la decisión ciudadana dejará de ser un ejercicio de voluntad para convertirse en el mero output estadístico de un algoritmo de recomendaciones.

Es urgente entones una respuesta pública a preguntas como estas:

¿Cómo funcionaría la “inoculación cognitiva” para proteger a los ciudadanos?

¿Qué ejemplos hay de auditoría digital aplicada en el sector público que pudiéramos aprovechar?

¿Cómo se debería gestionar la interoperabilidad de plataformas en la competencia y transparencia de los datos personales?

La democracia no se defenderá sola; requiere una estrategia tan audaz y tecnológicamente sofisticada como la de aquellos que pretenden devorarla.

Salir de la versión móvil