El Estado Vaticano se preocupó tempranamente por la instalación de mecanismos destinados a la propagación de la fe. Siglos más tarde, Edward Bernays moldeó conceptos heredados de su tío Sigmund Freud y se consolidó como el padre de las relaciones públicas. En paralelo, el comunicador e intelectual Walter Lippmann advirtió sobre La fabricación del consentimiento. La evolución de la propaganda, así entendida, reveló un recorrido amplio, progresivo y cada vez más sofisticado. ¿Recuerda usted el sonado caso de Cambridge Analytica (C.A.)? Vale la pena revisitarlo.
Con el objetivo de posicionar a su cliente político en el escenario electoral, Cambridge Analytica se dio a la tarea de perfilar votantes a partir de la extracción —o “cosecha”— masiva, sofisticada y metodológica de datos provenientes de redes sociales, realizada sin el consentimiento de los usuarios. Con apoyo de los modelos psicológicos OCEAN/ Big Five, C.A. estableció targets políticos y segmentaciones conductuales avanzadas capaces incluso de modelar o anticipar decisiones futuras. Luego, ingresó en la fase más delicada del proceso: la intervención emocional y cognitiva orientada a activar respuestas automáticas. ¿Cómo lo hicieron?
La empresa se dedicó a detonar potenciales emocionales específicos en los sujetos destino. Imagine que usted —el elector— es un(a) ciudadano(a) con preferencias conservadoras o progresistas. C.A, sin su autorización o consentimiento, le suministra un input acorde a su perfil para instalar un mensaje determinado; entonces, ante un perfil ansioso, se potenciaban mensajes de miedo y ante un perfil empático, mensajes de culpa. Usted y su vecino no saben que reciben publicidad electoral distinta según su perfil de personalidad. Reaccionan de manera diferente, actúan de forma distinta y, desde argumentos distintos, terminan inclinándose por el mismo perfil político cliente de Cambridge Analytica.
Esta empresa reforzó sesgos cognitivos y activó temores, redujo la capacidad crítica y generó la sensación de una elección autónoma. Lo envolvieron, sin preguntarle, en una espiral de sugestión sofisticada. La pregunta es inevitable: ¿realmente eligió usted a ese candidato o fue empujado a hacerlo?
Cambridge Analytica llevó al extremo una intervención cognitiva altamente sofisticada, lo que identificaríamos como —una soft neuroinfluence— que alertó sobre la existencia de un régimen de intervención sobre la voluntad. Hoy, desde la comprensión contemporánea de la neurotecnología y los neuroderechos, aquello que entonces parecía excepcional se vuelve central de proteger. En un contexto de inversiones millonarias en dispositivos que ya se están comercializando, capaces de recolectar neural data mediante interfaces cerebro-computador y potenciales hard neurointerventions, el riesgo es evidente: la alteración de la integridad psicológica, la erosión de la autonomía y la voluntad, el incremento de la desigualdad cognitiva en favor de ciertas élites y, eventualmente, la instalación de nuevos mecanismos de gobernanza de los datos neuronales.
La UNESCO advirtió sobre la necesidad de establecer derechos de protección en esta materia y ha extendido su preocupación en la publicación de al menos cien recomendaciones, que incluyen —según ha citado The Guardian— el uso de neurotecnología para el marketing subliminal aplicado durante los estados de sueño.
La preocupación, entonces, no es solo tecnológica, es altamente política. La democracia en este contexto abandona el sentido crítico y degenera en manipulación elevada. Plantear una ruta en defensa de los neuroderechos, deja de ser entonces una excentricidad, un delirio de ciencia ficción, se trata de resguardar la frontera última de soberanía: nuestra mente.
Daniela Leytón Michovich es psicóloga política y cientista social
Las opiniones de nuestros columnistas son exclusiva responsabilidad de los firmantes y no representan la línea editorial del medio ni de la red.
También te puede interesar:





