Vivimos en una era donde nuestra información personal es la nueva moneda global. Cada «me gusta», cada comentario, cada interacción digital deja una huella que, en manos adecuadas —o inadecuadas—, puede convertirse en un poderoso instrumento de influencia. El caso de Cambridge Analytica representa el ejemplo más inquietante de manipulación psicológica masiva que hemos presenciado en la era digital, un punto de inflexión que ha transformado nuestra comprensión de la democracia en el siglo XXI.
Como psicólogo especializado en ciberpsicología, he seguido este caso con particular preocupación. Lo que comenzó como una innovadora aplicación de la psicometría digital se transformó en uno de los mayores escándalos de manipulación política de nuestro tiempo. Cambridge Analytica no solo recopiló datos de millones de personas sin su consentimiento, sino que utilizó esa información para crear perfiles psicológicos detallados que permitieron manipular opiniones y comportamientos a una escala sin precedentes.
En este análisis, profundizaremos en las técnicas psicológicas empleadas, examinaremos sus efectos en diversos contextos electorales y, lo que considero más importante, exploraremos cómo podemos protegernos contra estas sofisticadas formas de manipulación. La batalla por la autonomía de nuestra mente está en marcha, y entender los mecanismos de esta manipulación es el primer paso para defendernos.

Orígenes y evolución de Cambridge Analytica
El nacimiento de Cambridge Analytica no fue un evento aislado, sino el resultado de una convergencia entre el avance tecnológico, la investigación psicológica y los intereses políticos. Para comprender verdaderamente la magnitud de su impacto, debemos examinar cuidadosamente sus raíces y evolución.
De SCL Group a Cambridge Analytica: el origen militar de las técnicas de persuasión
Cambridge Analytica surgió como una rama de Strategic Communication Laboratories (SCL Group), una empresa británica fundada en 1993 que inicialmente se especializó en investigación de comportamiento y comunicación estratégica para operaciones militares. SCL Group desarrolló técnicas de guerra psicológica y operaciones de influencia para el Ministerio de Defensa británico y la OTAN, creando metodologías para modificar comportamientos de poblaciones enteras en zonas de conflicto (Cadwalladr & Graham-Harrison, 2018).
Lo que me resulta particularmente inquietante, como psicólogo, es cómo estas técnicas diseñadas para escenarios de guerra fueron posteriormente adaptadas para su uso en procesos democráticos. En 2013, con una inversión de 15 millones de dólares del multimillonario conservador Robert Mercer, Cambridge Analytica se estableció específicamente para aplicar estas metodologías de guerra psicológica en el ámbito político estadounidense. Alexander Nix, quien se convertiría en CEO de la empresa, vio el potencial de trasladar estas herramientas de influencia militar al terreno electoral.
Esta transición representa un cambio paradigmático: técnicas desarrolladas para influir en poblaciones extranjeras durante conflictos se reorientaron hacia los propios ciudadanos en contextos democráticos. ¿Acaso no resulta paradójico que herramientas diseñadas para socavar gobiernos hostiles terminaran utilizándose en las democracias occidentales?
La conexión académica: el papel de Aleksandr Kogan y la investigación psicométrica
El componente académico de esta historia comienza con el Dr. Aleksandr Kogan, psicólogo de la Universidad de Cambridge, quien desarrolló una aplicación llamada «This Is Your Digital Life». Esta aplicación, aparentemente inocua, era en realidad un sofisticado instrumento de recolección de datos psicométricos. Kogan adaptó métodos de investigación académica legítima para crear un mecanismo de extracción masiva de información psicológica sin el conocimiento informado de los participantes.
A través de esta aplicación, no solo se recopilaron datos de aproximadamente 270.000 usuarios que la instalaron voluntariamente, sino que —gracias a las políticas de privacidad de Facebook en aquel momento— se accedió también a los datos de los amigos de estos usuarios, llegando a afectar a más de 87 millones de perfiles (Confessore, 2018). Esta cifra, que todavía hoy me resulta estremecedora, representa una de las mayores brechas de privacidad psicológica de la historia.
La colaboración entre Kogan y Cambridge Analytica ejemplifica una preocupante tendencia: la instrumentalización de la investigación psicológica con fines comerciales y políticos sin las salvaguardas éticas que normalmente acompañan al trabajo académico. Como investigadores, tenemos la responsabilidad de considerar las implicaciones éticas de nuestro trabajo, especialmente cuando involucra datos personales sensibles.
El modelo de negocio: psicometría, big data y manipulación política
Lo verdaderamente revolucionario del modelo de Cambridge Analytica fue la combinación de tres elementos: técnicas psicométricas avanzadas, análisis masivo de datos y estrategias de comunicación personalizadas. La empresa perfeccionó un sistema que permitía, a partir de un número relativamente pequeño de «me gusta» en Facebook, predecir rasgos de personalidad fundamentales según el modelo de los Cinco Grandes (Big Five): apertura, conciencia, extraversión, amabilidad y neuroticismo.
Un estudio publicado por investigadores de la Universidad de Cambridge y Stanford demostró que con solo 10 «me gusta» en Facebook, un algoritmo podía predecir la personalidad de un usuario mejor que un compañero de trabajo; con 70, mejor que un amigo; y con 300, mejor que su propio cónyuge (Youyou et al., 2015). Cambridge Analytica aprovechó estos hallazgos para desarrollar su propio sistema predictivo, categorizando a los votantes según sus perfiles psicológicos.
Este conocimiento psicológico detallado permitió a la empresa crear lo que denominaron «comunicación conductual» —un eufemismo para referirse a mensajes diseñados específicamente para explotar vulnerabilidades psicológicas particulares. Así, una persona identificada con alto nivel de neuroticismo podría recibir mensajes que enfatizaran amenazas y miedos, mientras que alguien con alta apertura recibiría contenidos más conceptuales e idealistas, pero ambos promoviendo el mismo candidato o causa.
«Hemos combinado la ciencia psicológica con el big data para identificar exactamente qué mensaje resonará con cada votante específico. Es como tener una conversación personal con cada elector, pero a escala industrial.» — Alexander Nix, ex-CEO de Cambridge Analytica (2016)
Esta declaración de Nix revela la esencia inquietante del modelo: la ilusión de un debate político personalizado que, en realidad, es una forma sofisticada de manipulación individualizada. No estamos ante una conversación genuina, sino ante un monólogo calculado para explotar nuestras predisposiciones psicológicas.
Caso de estudio: Las campañas de Ted Cruz y Donald Trump en 2016
El debut político más significativo de Cambridge Analytica en Estados Unidos fue durante las primarias republicanas de 2016, trabajando inicialmente para la campaña de Ted Cruz. Con una inversión de más de 5,8 millones de dólares por parte del equipo de Cruz, la empresa desplegó su arsenal psicométrico para identificar potenciales votantes indecisos que podrían ser persuadidos (Kranish, 2016).
Los resultados fueron notables: Cruz, inicialmente considerado un candidato improbable, ganó las primarias de Iowa y se mantuvo como un contendiente serio más tiempo del esperado. Aunque finalmente perdió la nominación, el desempeño de su campaña llamó la atención del equipo de Donald Trump, que posteriormente contrató a Cambridge Analytica.
Durante la campaña presidencial, Cambridge Analytica analizó datos de más de 220 millones de estadounidenses, creando perfiles psicológicos detallados de prácticamente todos los votantes adultos del país. Según reportes internos, la empresa llegó a identificar 32 tipos psicográficos distintos de votantes, cada uno con sus propios «detonantes» emocionales y cognitivos (Grassegger & Krogerus, 2017).
Esta segmentación psicológica tan precisa permitió a la campaña de Trump dirigir mensajes hiperpersonalizados a votantes indecisos en estados clave como Michigan, Wisconsin y Pensilvania —estados que, con márgenes extremadamente estrechos, resultaron decisivos para su victoria electoral.
Como observador de este proceso, lo que me resulta más perturbador no es solo la efectividad de estas técnicas, sino la asimetría fundamental de información que crearon: los votantes no eran conscientes de que estaban siendo categorizados y manipulados según sus vulnerabilidades psicológicas específicas.

Fundamentos psicológicos de la manipulación digital
Para comprender plenamente cómo Cambridge Analytica logró influir en millones de personas, es esencial examinar los mecanismos psicológicos subyacentes a sus estrategias. Estas técnicas no surgieron de la nada; se basan en décadas de investigación en psicología social, cognitiva y del comportamiento, ahora potenciadas exponencialmente por la tecnología digital.
El modelo OCEAN y la predicción de comportamiento político
En el núcleo de la metodología de Cambridge Analytica se encuentra el modelo de personalidad conocido como OCEAN o los Cinco Grandes (Big Five), desarrollado por psicólogos como Costa y McCrae en los años 80 y ampliamente validado desde entonces. Este modelo evalúa cinco dimensiones fundamentales de la personalidad:
- Openness (Apertura a la experiencia)
- Conscientiousness (Responsabilidad)
- Extraversion (Extraversión)
- Agreeableness (Amabilidad)
- Neuroticism (Neuroticismo)
Lo revolucionario del enfoque de Cambridge Analytica fue establecer correlaciones robustas entre estos rasgos de personalidad y las preferencias políticas. Por ejemplo, diversos estudios han demostrado que las personas con alta puntuación en apertura tienden a ser más receptivas a mensajes progresistas, mientras que aquellas con alta responsabilidad y bajo nivel de apertura suelen responder mejor a mensajes conservadores (Jost et al., 2003; Gerber et al., 2011).
En mi experiencia clínica, he observado cómo estos rasgos influyen sutilmente en nuestras decisiones cotidianas. Sin embargo, Cambridge Analytica aprovechó esta comprensión para crear lo que podríamos llamar «ingeniería política de precisión»: identificar votantes específicos cuyo perfil psicológico los hacía particularmente susceptibles a ciertos mensajes políticos.
Un estudio realizado por Kosinski, Stillwell y Graepel (2013) demostró que a partir de un promedio de 68 «me gusta» en Facebook, se podía predecir con notable precisión la orientación política (85%), orientación sexual (88%), e incluso el consumo de drogas o alcohol (73%) de los usuarios. Cambridge Analytica refinó y amplió estos modelos predictivos, creando un sistema capaz de anticipar respuestas emocionales y cognitivas a estímulos políticos específicos.
Sesgos cognitivos explotados en la manipulación digital
Todos los seres humanos operamos con una serie de atajos mentales o sesgos cognitivos que facilitan nuestro procesamiento de la información. Cambridge Analytica diseñó estrategias específicas para explotar estos sesgos, especialmente en entornos digitales donde las defensas críticas suelen estar disminuidas. Entre los principales sesgos utilizados destacan:
- Sesgo de confirmación: Tendemos a buscar y favorecer información que confirme nuestras creencias preexistentes. Cambridge Analytica identificaba las predisposiciones ideológicas de los usuarios y les enviaba contenido que reforzaba estas visiones, creando cámaras de eco cada vez más polarizadas.
- Efecto de mera exposición: Cuanto más expuestos estamos a una idea, más familiar y aceptable nos parece, independientemente de su veracidad. La empresa bombardeaba a ciertos segmentos con mensajes repetitivos que, con el tiempo, normalizaban incluso posiciones extremas.
- Heurística de disponibilidad: Juzgamos la probabilidad de eventos basándonos en la facilidad con que los ejemplos vienen a nuestra mente. Al saturar los feeds de noticias con historias sobre, por ejemplo, crímenes cometidos por inmigrantes, se creaba una percepción distorsionada de la frecuencia real de estos sucesos.
- Aversión a la pérdida: Las personas experimentamos las pérdidas con mayor intensidad emocional que las ganancias equivalentes. Los mensajes que enfatizaban lo que los votantes podrían «perder» (trabajos, seguridad, identidad cultural) resultaban particularmente efectivos para movilizar a ciertos segmentos.
Estos sesgos, bien documentados en la literatura psicológica, se convirtieron en puntos de apalancamiento para la manipulación masiva. Como psicólogo, encuentro profundamente perturbador cómo conocimientos desarrollados para comprender el comportamiento humano fueron instrumentalizados para manipularlo sin el consentimiento informado de las personas afectadas.
Ingeniería emocional y toma de decisiones políticas
Una de las revelaciones más significativas del caso Cambridge Analytica fue la centralidad de las emociones en la toma de decisiones políticas. Contrariamente a la visión tradicional del votante como un actor racional que evalúa objetivamente propuestas políticas, la investigación contemporánea en neurociencia política demuestra que nuestras decisiones electorales están profundamente influenciadas por respuestas emocionales automatizadas (Westen, 2007).
Cambridge Analytica perfeccionó lo que podríamos denominar «ingeniería emocional»: la capacidad de provocar respuestas emocionales específicas (miedo, ira, indignación, esperanza) en segmentos concretos de la población. Sus algoritmos no solo predecían qué emociones serían más efectivas para cada perfil psicológico, sino que medían la respuesta a estos estímulos en tiempo real, refinando continuamente sus modelos.
El caso más documentado de esta estrategia fue el uso del miedo como motivador político. Estudios en neurociencia han demostrado que el miedo activa la amígdala y reduce la actividad en la corteza prefrontal, disminuyendo nuestra capacidad de procesamiento crítico y favoreciendo respuestas más automáticas y primitivas (LeDoux, 2003). En contextos como el referéndum del Brexit, se ha documentado cómo Cambridge Analytica identificó sistemáticamente a votantes susceptibles a mensajes basados en el miedo y les dirigió contenido que exacerbaba ansiedades sobre inmigración y pérdida de control nacional.
«Las campañas son fundamentalmente emocionales. Las grandes ideas son importantes, pero los electores toman decisiones basadas en cómo se sienten. Descubrimos qué les preocupa y les presentamos soluciones.» — Brittany Kaiser, ex-directora de desarrollo de negocios de Cambridge Analytica (2019)
Esta declaración de Kaiser revela la filosofía central: identificar vulnerabilidades emocionales y explotarlas para fines políticos. Como sociedad, debemos preguntarnos si queremos que nuestros procesos democráticos se conviertan en ejercicios de manipulación emocional a escala industrial.
Caso de estudio: El referéndum del Brexit
El referéndum sobre la permanencia del Reino Unido en la Unión Europea representa uno de los ejemplos más significativos de la aplicación de estas técnicas. Aunque Cambridge Analytica ha negado oficialmente su participación directa en la campaña oficial del Leave, múltiples investigaciones y testimonios de ex-empleados sugieren que la empresa trabajó con organizaciones afiliadas como Leave.EU y AggregateIQ (Cadwalladr, 2018).
En este contexto, las técnicas de segmentación psicográfica se utilizaron para identificar lo que internamente se denominaban «persuadables»: votantes indecisos con perfiles psicológicos específicos que los hacían susceptibles a ciertos tipos de mensajes sobre la UE. Para los votantes con alto neuroticismo y baja apertura, se enfatizaban amenazas percibidas como la inmigración incontrolada; para aquellos con alta conciencia, se destacaban cuestiones de soberanía y control presupuestario.
Particularmente efectiva fue la estrategia de explotar lo que los psicólogos llamamos «pensamiento mágico»: la tendencia a establecer conexiones causales entre eventos no relacionados. La campaña logró vincular problemas como la saturación del sistema sanitario o la crisis de vivienda con la pertenencia a la UE, a pesar de que estas relaciones eran mucho más complejas y, en muchos casos, tenues o inexistentes.
El resultado del referéndum, con un margen extremadamente estrecho (51,9% frente a 48,1%), ejemplifica cómo estas técnicas de manipulación psicológica pueden tener consecuencias profundas y duraderas en decisiones políticas cruciales. Como españoles, debemos reflexionar sobre la vulnerabilidad de nuestros propios procesos democráticos ante este tipo de intervenciones.

Estrategias de manipulación psicológica empleadas
La verdadera innovación de Cambridge Analytica no residió tanto en las teorías psicológicas que utilizó —muchas de ellas bien establecidas— sino en la sofisticación tecnológica con que las implementó a escala masiva. Estamos ante un caso paradigmático de cómo la convergencia entre psicología y tecnología avanzada puede transformar radicalmente los mecanismos de influencia social.
Microtargeting psicográfico: más allá de la demografía
El marketing político tradicional ha operado históricamente con segmentaciones demográficas básicas: edad, género, nivel educativo, código postal. Cambridge Analytica revolucionó este enfoque implementando lo que denominaron «microtargeting psicográfico»: la capacidad de dirigir mensajes específicos basados no en quién eres (demografía), sino en cómo piensas y sientes (psicografía).
Esta aproximación permitió identificar, por ejemplo, a un subconjunto específico de hombres de mediana edad, clase trabajadora, con alto neuroticismo y baja apertura, que vivían en determinados distritos electorales y que respondían particularmente bien a mensajes sobre amenazas a la seguridad nacional. Esta granularidad en la segmentación era completamente inédita en campañas políticas anteriores.
Un aspecto particularmente inquietante de esta estrategia es que funcionaba mejor precisamente con los votantes más vulnerables psicológicamente: aquellos con menor alfabetización mediática, mayor susceptibilidad a la desinformación y perfiles de personalidad que los hacían más receptivos a mensajes emocionales simplistas (Bakir & McStay, 2018).
En el contexto español, donde la polarización política ha aumentado significativamente en los últimos años, estas técnicas podrían ser particularmente perniciosas. Imaginen el potencial para exacerbar tensiones ya existentes en temas como la inmigración, el independentismo catalán o la memoria histórica, dirigiendo mensajes inflamatorios precisamente a aquellos ciudadanos psicológicamente más susceptibles a la radicalización.
Operaciones de información y desinformación selectiva
Cambridge Analytica no se limitó a personalizar mensajes legítimos; también desarrolló sofisticadas operaciones de desinformación. Estas incluían:
- Noticias falsas dirigidas: La creación y difusión de contenido engañoso adaptado a perfiles psicológicos específicos, maximizando su impacto emocional y minimizando la probabilidad de verificación crítica.
- Astroturfing digital: La simulación de movimientos de base espontáneos que, en realidad, estaban orquestados algorítmicamente para crear una falsa impresión de consenso social.
- Weaponized narratives: El desarrollo de narrativas conflictivas diseñadas específicamente para explotar divisiones sociales preexistentes, amplificando tensiones entre grupos.
Un elemento central de esta estrategia fue lo que los investigadores denominan «información oscura» (dark information): contenido político que solo es visible para sus destinatarios específicos, creando múltiples conversaciones políticas paralelas e incompatibles entre sí (Tufekci, 2014). A diferencia de la publicidad política tradicional, visible para todos los ciudadanos, estos mensajes microtargetizados escapaban al escrutinio público y periodístico.
En España, donde la Comisión Nacional de los Mercados y la Competencia (CNMC) y otras entidades reguladoras tienen capacidades limitadas para supervisar la publicidad política digital, estas técnicas podrían desplegarse con mínima supervisión, especialmente en plataformas menos reguladas como WhatsApp, ampliamente utilizada para comunicación política en nuestro país.
Explotación de vulnerabilidades psicológicas colectivas
Más allá de las vulnerabilidades individuales, Cambridge Analytica demostró una notable capacidad para identificar y explotar vulnerabilidades psicológicas a nivel de grupo o comunidad. Esto incluía:
- Ansiedades económicas: En comunidades afectadas por la desindustrialización o la precariedad laboral, se enfatizaban mensajes sobre competencia por empleos o recursos.
- Inseguridades identitarias: En grupos con fuerte identidad cultural o religiosa, se amplificaban percepciones de amenaza a valores tradicionales.
- Resentimientos históricos: En regiones con conflictos históricos no resueltos, se reactivaban narrativas de agravio y victimización.
Lo particularmente sofisticado de este enfoque era la capacidad de activar estas vulnerabilidades colectivas de manera diferencial según el contexto, creando lo que los psicólogos sociales llaman «identidades situacionales»: aspectos de nuestra identidad que se vuelven prominentes en determinadas circunstancias.
Por ejemplo, un mismo votante podría recibir mensajes que activaran su identidad como trabajador precarizado en contenido relacionado con economía, pero mensajes que apelaran a su identidad religiosa en temas sociales. Esta multiplicidad de aproximaciones maximizaba la probabilidad de encontrar un «punto de entrada» psicológico efectivo.
Caso de estudio: Elecciones en Trinidad y Tobago
Uno de los casos menos conocidos pero más reveladores involucra las elecciones generales de 2010 en Trinidad y Tobago, donde Cambridge Analytica implementó lo que internamente denominaron «Operación Do So» (Coloquialmente, «Hazlo así» en inglés caribeño).
Según testimonios de ex-empleados, la empresa desarrolló una campaña dirigida específicamente a jóvenes afrocaribeños, promoviendo la abstención electoral a través de mensajes aparentemente apolíticos. Crearon una falsa campaña de base con estética juvenil y urbana que promovía el mensaje «Do So» (no votes, no participes) como forma de protesta contra el sistema político (Wylie, 2019).
Esta campaña logró reducir la participación electoral en aproximadamente un 40% entre este grupo demográfico clave, afectando significativamente los resultados electorales. Lo más perturbador de este caso es que los jóvenes que participaron en esta «protesta» no eran conscientes de que estaban siendo manipulados por una operación financiada por intereses políticos específicos.
Este ejemplo ilustra una estrategia particularmente insidiosa: no se trata solo de persuadir a los votantes para que apoyen a un candidato determinado, sino de suprimir selectivamente la participación de ciertos grupos demográficos o psicográficos que podrían votar por el oponente. En contextos con alta abstención como el español, técnicas similares podrían tener un impacto sustancial en nuestros procesos electorales.
Impacto en procesos democráticos globales y en España
Las técnicas desarrolladas por Cambridge Analytica no representan simplemente innovaciones en marketing político; constituyen una transformación fundamental en la naturaleza misma de los procesos democráticos. Sus implicaciones trascienden elecciones específicas y nos obligan a reconsiderar los fundamentos de la democracia en la era digital.
Erosión del consentimiento informado en democracia
El concepto de consentimiento informado, fundamental tanto en psicología como en teoría democrática, supone que los ciudadanos toman decisiones basadas en un entendimiento razonable de las alternativas y sus implicaciones. Las técnicas de manipulación psicológica masiva socavan directamente este principio, creando lo que podríamos denominar un «consentimiento manufacturado».
Cuando los ciudadanos reciben información radicalmente diferente según sus perfiles psicológicos, la noción de un «debate público» compartido —esencial para la democracia deliberativa— se vuelve inviable. No existe una conversación común, sino múltiples burbujas informativas incompatibles entre sí.
Esta fragmentación informativa tiene efectos particularmente perniciosos en sistemas como el español, caracterizado por un pluralismo polarizado mediático. Nuestro ecosistema mediático, ya de por sí segmentado ideológicamente, se vuelve aún más vulnerable a la atomización extrema que facilitan estas tecnologías.
De la persuasión legítima a la manipulación encubierta
Toda comunicación política busca persuadir, pero existe una distinción ética crucial entre persuasión legítima y manipulación encubierta. La persuasión legítima respeta la autonomía del receptor y opera con transparencia sobre sus intenciones; la manipulación, por el contrario, busca eludir las defensas racionales del individuo y oculta su naturaleza instrumental.
Las técnicas empleadas por Cambridge Analytica se sitúan claramente en este segundo campo por varias razones:
- Opacidad metodológica: Los destinatarios desconocían que estaban siendo clasificados psicológicamente y recibiendo mensajes diseñados para explotar sus vulnerabilidades específicas.
- Asimetría informativa: Mientras los manipuladores disponían de perfiles psicológicos detallados, los ciudadanos no tenían acceso a información comparable sobre quienes intentaban influirles.
- Intencionalidad evasiva: Los mensajes se diseñaban explícitamente para eludir el escrutinio racional, apelando a procesos cognitivos automáticos y sesgos implícitos.
Esta distinción no es meramente académica. Cuando la manipulación encubierta reemplaza al debate transparente, la democracia pierde su fundamento epistemológico: la capacidad de los ciudadanos para formarse opiniones razonadas sobre asuntos públicos.
La amenaza a la integridad electoral en el contexto español
España no ha sido inmune a controversias relacionadas con la manipulación psicológica digital en contextos electorales. Aunque no existen evidencias concluyentes de operaciones a la escala de Cambridge Analytica, diversos informes han documentado intentos de influencia coordinada en procesos como las elecciones generales de 2019 o el conflicto catalán (Fundación Alternativas, 2022).
Particularmente preocupante resulta la vulnerabilidad de nuestro sistema ante lo que los expertos denominan «amenazas híbridas»: operaciones que combinan técnicas de manipulación psicológica con desinformación selectiva y amplificación algorítmica. El Centro Criptológico Nacional ha alertado específicamente sobre el incremento de estas actividades dirigidas al proceso electoral español (CCN-CERT, 2023).
Un factor agravante en el caso español es la alta penetración de plataformas de mensajería cerrada como WhatsApp para la comunicación política. A diferencia de redes sociales abiertas, estos canales presentan mayores desafíos para la monitorización y regulación, creando espacios propicios para la difusión de desinformación microtargetizada.
Polarización afectiva y deterioro del discurso democrático
Quizás el efecto más profundo y duradero de estas técnicas sea lo que los psicólogos políticos denominan «polarización afectiva»: el incremento de emociones negativas hacia oponentes políticos, independientemente de desacuerdos políticos concretos. Las estrategias de microtargeting psicológico tienden a maximizar esta polarización, pues los algoritmos aprenden rápidamente que los mensajes emocionales negativos generan mayor engagement.
Un estudio reciente de la Universidad Complutense de Madrid analizó la evolución del discurso político en redes sociales durante las campañas electorales españolas entre 2015 y 2023, encontrando un incremento del 62% en lenguaje deshumanizador hacia oponentes políticos (Rodríguez-Virgili et al., 2024). Esta tendencia coincide con la progresiva sofisticación de las técnicas de microtargeting implementadas por los principales partidos.
Las consecuencias de esta polarización afectiva trascienden los períodos electorales. Cuando los ciudadanos perciben a sus oponentes políticos no como adversarios legítimos sino como amenazas existenciales, la posibilidad de compromiso y deliberación democrática se deteriora significativamente. En el contexto español, con tensiones territoriales y socioeconómicas preexistentes, este deterioro puede tener consecuencias particularmente graves.
Caso de estudio: Interferencia en el proceso independentista catalán
El conflicto catalán ha representado un escenario propicio para la aplicación de técnicas de manipulación psicológica digital. Investigaciones periodísticas y académicas han documentado campañas coordinadas de desinformación y amplificación artificial durante momentos clave como el referéndum de 2017 y las protestas posteriores (Alandete, 2019).
Aunque no existe evidencia concluyente de la participación directa de Cambridge Analytica en este contexto, las técnicas que desarrollaron fueron posteriormente adoptadas y refinadas por otros actores. Un informe del Real Instituto Elcano (2020) identificó patrones consistentes con operaciones de influencia psicológica dirigidas a:
- Exacerbar divisiones preexistentes entre comunidades catalanas y del resto de España.
- Amplificar narrativas extremas de ambos lados del espectro político.
- Promover desconfianza en instituciones democráticas y medios de comunicación.
Particularmente sofisticada fue la segmentación psicográfica de mensajes: usuarios con perfiles de alta apertura y baja conciencia recibían contenido que enfatizaba valores de autodeterminación y libertad colectiva, mientras que aquellos con alta conciencia y bajo neuroticismo eran expuestos a mensajes centrados en legalidad y estabilidad institucional.
Esta instrumentalización psicológica de tensiones sociopolíticas reales representa uno de los mayores desafíos para la salud democrática española. Como sociedad, debemos desarrollar urgentemente mecanismos para identificar y contrarrestar estas operaciones de manipulación, protegiendo la integridad del debate público sobre cuestiones fundamentales para nuestra convivencia.

Cómo identificar y defenderse de la manipulación psicológica digital
Ante la sofisticación creciente de las técnicas de manipulación psicológica, desarrollar capacidades de resistencia individual y colectiva se ha convertido en una necesidad democrática urgente. Afortunadamente, la investigación en psicología cognitiva, educación mediática y ciencias de la computación nos ofrece herramientas prometedoras para contrarrestar estas amenazas.
Señales de alerta: detectando manipulación psicológica en entornos digitales
Como ciudadanos en la era digital, necesitamos desarrollar un nuevo tipo de alfabetización que incluya la capacidad de identificar intentos de manipulación psicológica. Estas son algunas señales de alerta que sugieren posible manipulación algorítmica:
Señal de alerta | Descripción | Estrategia defensiva |
Apelación emocional extrema | Contenido diseñado para provocar respuestas emocionales intensas, especialmente miedo, ira o indignación. | Implementar la «regla de los 10 segundos»: esperar 10 segundos antes de interactuar con contenido emocionalmente provocador. |
Urgencia artificial | Mensajes que presionan para tomar decisiones o compartir información inmediatamente. | Establecer como norma personal verificar siempre la información urgente con al menos dos fuentes independientes. |
Personalización excesiva | Contenido que parece conocer demasiado bien tus preocupaciones específicas o circunstancias personales. | Cuestionar regularmente: «¿Por qué estoy viendo este contenido específico en este momento?» |
Confirmación perfecta | Información que valida completamente tus creencias preexistentes sin matices o complejidades. | Buscar activamente perspectivas diversas sobre temas importantes. |
Deshumanización del adversario | Contenido que caracteriza a grupos o individuos con opiniones diferentes como inherentemente maliciosos o menos humanos. | Practicar la «empatía epistémica»: intentar comprender honestamente por qué personas razonables podrían sostener posiciones opuestas. |
Estas señales no son definitivas por sí solas, pero la presencia simultánea de varias de ellas debería activar nuestras defensas cognitivas. Como psicólogo, recomiendo desarrollar el hábito de hacer «pausas metacognitivas»: momentos deliberados para reflexionar sobre por qué cierto contenido nos afecta de determinada manera.
Estrategias cognitivas de resistencia a la manipulación
La buena noticia es que nuestros cerebros poseen mecanismos naturales de defensa contra la manipulación que pueden ser fortalecidos conscientemente. Estas son algunas estrategias basadas en evidencia científica:
- Procesamiento de doble vía: Entrenar conscientemente el hábito de evaluar la información a través del «Sistema 2» (pensamiento analítico, lento y deliberado) en lugar del «Sistema 1» (intuitivo, rápido y emocional), especialmente cuando se trata de temas políticos controversiales. Un metaanálisis de 22 estudios demostró que simplemente recordar a las personas que reflexionen analíticamente reduce la susceptibilidad a la desinformación en un 26% (Pennycook & Rand, 2020).
- Inoculación psicológica: Exponerse deliberadamente a versiones debilitadas de intentos de manipulación con explicaciones sobre las técnicas utilizadas. Estudios recientes muestran que esta «vacunación mental» puede reducir la efectividad de futuras manipulaciones en hasta un 40% (van der Linden et al., 2021).
- Descategorización identitaria: Practicar conscientemente la reducción de la prominencia de identidades políticas polarizadas, enfocándose en identidades compartidas más inclusivas. Experimentos en psicología social han demostrado que esta técnica puede reducir la polarización afectiva en aproximadamente un 30% (Levendusky, 2018).
- Escepticismo calibrado: Desarrollar un nivel óptimo de escepticismo —ni ingenuo ni cínicamente paralizante— hacia la información política. Un estudio de la Universidad de Navarra encontró que los ciudadanos con niveles moderados de escepticismo mediático mostraban mayor resistencia a la desinformación que aquellos con niveles muy bajos o muy altos (Areso-Casado et al., 2022).
Estas estrategias son particularmente efectivas cuando se practican regularmente, convirtiéndose eventualmente en hábitos cognitivos automáticos que funcionan como primera línea de defensa contra intentos de manipulación.
Herramientas tecnológicas para proteger la autonomía psicológica
Además de las defensas cognitivas, podemos aprovechar herramientas tecnológicas diseñadas específicamente para contrarrestar la manipulación algorítmica:
- Extensiones de navegador anti-burbujas: Aplicaciones como «Escape Your Bubble» o «PolitEcho» que diversifican deliberadamente el contenido político al que estamos expuestos, contrarrestando la tendencia algorítmica hacia la homogeneidad ideológica.
- Detectores de sesgo político: Herramientas como «AdAnalyst» o «Who Targets Me» que permiten visualizar cómo los anunciantes políticos nos categorizan y qué mensajes específicos nos dirigen, aumentando la transparencia del microtargeting.
- Verificadores de origen: Aplicaciones como «Botometer» o «NewsGuard» que evalúan la probabilidad de que determinado contenido provenga de campañas coordinadas de manipulación o fuentes poco fiables.
- Gestores de privacidad avanzados: Herramientas como «Privacy Badger» o «Jumbo» que limitan sistemáticamente la cantidad de datos psicográficos que las plataformas pueden recopilar sobre nosotros, reduciendo así la efectividad potencial del microtargeting.
En el contexto español, instituciones como el Instituto Nacional de Ciberseguridad (INCIBE) han desarrollado recursos específicos como la «Guía de protección digital ciudadana», que incluye recomendaciones adaptadas a nuestro ecosistema mediático y regulatorio.
Caso de estudio: Educación en resistencia psicológica digital en Finlandia
Finlandia representa un caso paradigmático de resistencia societal a la manipulación psicológica digital. Desde 2014, el país ha implementado un programa nacional integral de alfabetización mediática y resistencia cognitiva que incluye:
- Formación obligatoria en pensamiento crítico y verificación de información desde la educación primaria.
- Simulacros de desinformación supervisados en entornos educativos.
- Campañas públicas de concienciación sobre técnicas de manipulación.
Los resultados han sido notables: estudios comparativos sitúan a Finlandia como el país europeo con mayor resistencia ciudadana a la desinformación y manipulación psicológica digital (European Commission, 2023). Un estudio de la Universidad de Helsinki demostró que los estudiantes finlandeses tienen un 76% más de probabilidades de identificar correctamente intentos de manipulación algorítmica que sus homólogos de otros países europeos.
España podría adaptar aspectos de este modelo, integrando la alfabetización en resistencia psicológica digital en nuestro sistema educativo. La Fundación Española para la Ciencia y la Tecnología (FECYT) ya ha propuesto un marco curricular en esta línea, pendiente de implementación a escala nacional.
El futuro de la manipulación psicológica en la era digital
Si el caso Cambridge Analytica nos mostró el potencial de la manipulación psicológica basada en datos de 2016, las tecnologías emergentes prometen amplificar estas capacidades a niveles cualitativamente distintos. Comprender estas tendencias futuras es esencial para desarrollar mecanismos preventivos adecuados.
Inteligencia artificial generativa y manipulación hiperpersonalizada
La reciente explosión de modelos de IA generativa (como GPT-4, Claude o DALL-E) está transformando radicalmente las posibilidades de manipulación psicológica. Estas tecnologías permiten crear contenido persuasivo hiperpersonalizado a escala masiva y en tiempo real, adaptándose continuamente a las respuestas del receptor.
Un estudio reciente de la Universidad de Stanford simuló una campaña utilizando IA generativa para crear mensajes políticos personalizados, encontrando un incremento del 40% en la persuasión efectiva comparado con mensajes creados por humanos (Horowitz et al., 2023). Particularmente inquietante es la capacidad de estos sistemas para:
- Generar «deep fakes» multimodales: Contenido falso pero convincente que combina texto, imagen, audio y video personalizado.
- Implementar «psychological nudging» dinámico: Ajuste en tiempo real de estrategias persuasivas basado en las reacciones detectadas del usuario.
- Crear «digital doppelgängers»: Simulaciones de personas reales de nuestro entorno social expresando opiniones fabricadas.
En este contexto, la distinción entre realidad y manipulación se vuelve cada vez más difusa, incluso para individuos con alta alfabetización mediática. La velocidad de estas tecnologías supera actualmente nuestra capacidad para desarrollar defensas cognitivas y regulatorias adecuadas.
El capitalismo de vigilancia y la economía de la atención
En su influyente análisis, Shoshana Zuboff (2019) identifica el surgimiento de un nuevo sistema económico que denomina «capitalismo de vigilancia»: un modelo de negocio basado en la extracción masiva de datos comportamentales para predecir y modificar conductas futuras. Cambridge Analytica no fue una anomalía, sino una manifestación particularmente visible de este sistema más amplio.
La economía de la atención que sustenta este modelo crea incentivos estructurales para la manipulación psicológica. Las plataformas digitales maximizan beneficios no cuando facilitamos diálogos racionales, sino cuando permanecemos emocionalmente enganchados —idealmente en estados de indignación, miedo o ansiedad que generan mayor engagement.
Esta realidad económica plantea desafíos fundamentales para la democracia española. En un ecosistema mediático donde la manipulación emocional es más rentable que la información equilibrada, necesitamos urgentemente nuevos modelos de financiación para el periodismo de calidad y plataformas alternativas con incentivos alineados con el bienestar democrático.
Regulación y gobernanza de la manipulación psicológica digital
El caso Cambridge Analytica cataliza un replanteamiento global sobre la regulación de la manipulación psicológica digital. En la Unión Europea, el Reglamento General de Protección de Datos (RGPD) y la reciente Ley de Servicios Digitales (DSA) establecen marcos pioneros que:
- Reconocen explícitamente el perfilado psicológico como una categoría especial de procesamiento de datos que requiere consentimiento específico e informado.
- Requieren transparencia algorítmica en sistemas que puedan influir significativamente en decisiones de los ciudadanos.
- Establecen evaluaciones obligatorias de impacto para tecnologías con potencial de manipulación psicológica a gran escala.
España, como Estado miembro, ha incorporado estos principios en su ordenamiento a través de la Ley Orgánica de Protección de Datos y Garantía de Derechos Digitales (LOPDGDD). Sin embargo, la implementación efectiva enfrenta desafíos significativos, especialmente en lo relativo a la capacidad técnica de los organismos reguladores como la Agencia Española de Protección de Datos.
Como sociedad, enfrentamos una pregunta fundamental: ¿qué límites éticos y legales queremos establecer en el uso de técnicas psicológicas avanzadas para fines políticos y comerciales? Esta conversación debe trascender ámbitos técnicos y jurídicos para convertirse en un debate social amplio sobre los fundamentos de nuestra autonomía psicológica en la era digital.
Perspectivas de resistencia colectiva y empoderamiento ciudadano
Frente a estos desafíos, emergen movimientos ciudadanos que proponen alternativas basadas en el empoderamiento colectivo. Iniciativas como «Data Commons», «Public Digital Infrastructure» o «Platform Cooperativism» plantean modelos alternativos donde:
- Los ciudadanos mantienen control efectivo sobre sus datos psicológicos y las inferencias derivadas de ellos.
- Las plataformas operan con modelos de gobernanza democrática, alineando incentivos con el bienestar colectivo en lugar de la maximización de engagement.
- Los algoritmos de recomendación se diseñan para optimizar el bienestar psicológico y la salud democrática, no la adicción digital.
En España, organizaciones como Xnet, Iniciativa Barcelona Open Data o la Asociación de Internautas están desarrollando proyectos piloto en esta línea. Particularmente prometedor es el concepto de «data trusts» o fideicomisos de datos: estructuras legales que permiten a los ciudadanos agrupar y gestionar colectivamente sus datos bajo términos que reflejen sus valores compartidos.
Como psicólogo comprometido con una perspectiva de izquierda y humanista, considero que estas iniciativas representan no solo respuestas técnicas, sino aproximaciones fundamentalmente políticas que cuestionan las relaciones de poder subyacentes en la economía digital contemporánea.

Cómo identificar y defenderse de la manipulación psicológica digital en la práctica
La comprensión teórica de estas técnicas debe traducirse en capacidades prácticas de resistencia. Como ciudadanos españoles en 2025, necesitamos un conjunto de herramientas y habilidades concretas para navegar un ecosistema informativo cada vez más manipulado.
Guía práctica: 5 pasos para fortalecer tu autonomía psicológica digital
- Realiza una auditoría de tu perfil digital
- Solicita tus datos personales a las principales plataformas (Facebook, Google, Twitter) utilizando los derechos que te otorga el RGPD.
- Examina qué categorías de interés te han asignado (especialmente las políticas e ideológicas).
- Elimina intereses incorrectos o que no desees que se utilicen para dirigirte contenido.
- Implementa un «entrenamiento de resistencia» regular
- Dedica 15 minutos semanales a buscar deliberadamente perspectivas políticas opuestas a las tuyas.
- Practica identificar las técnicas persuasivas utilizadas en contenido político que consumes habitualmente.
- Utiliza herramientas como «Ad Observer» para visualizar qué publicidad política te muestran y por qué.
- Diversifica conscientemente tus fuentes de información
- Configura alertas de noticias de al menos tres medios con orientaciones editoriales distintas.
- Sigue a analistas políticos con perspectivas diversas pero que practiquen argumentación de buena fe.
- Utiliza agregadores como Flipboard o Feedly para crear un ecosistema informativo equilibrado.
- Protege tu perfil psicológico digital
- Limita el uso de cuestionarios y aplicaciones que solicitan acceso a tus datos de redes sociales.
- Utiliza navegación privada o herramientas como Privacy Badger para limitar el tracking.
- Considera usar gestores de identidad digital que te permitan compartimentar tu presencia online.
- Participa en iniciativas colectivas de resistencia
- Únete a observatorios ciudadanos de desinformación como Maldita.es o Newtral.
- Colabora con proyectos de monitorización de publicidad política como Who Targets Me.
- Apoya iniciativas legislativas para regular la manipulación psicológica digital.
Recuerda: la resistencia efectiva combina estrategias individuales y colectivas. Nuestra vulnerabilidad a la manipulación no es simplemente una debilidad personal, sino el resultado de asimetrías estructurales de poder e información que requieren respuestas sociopolíticas.
Recursos prácticos para ciudadanos españoles
Herramientas de protección:
- Extensión RGPD para navegadores: Facilita ejercer derechos de protección de datos con un clic.
- PoliticApp: Aplicación española que muestra qué datos utilizan los partidos políticos para perfilarte.
- Digital Detox España: Programa que ayuda a reducir la dependencia de plataformas manipulativas.
Cursos y formación:
- Curso abierto «Resistencia Digital» de la UNED: Formación gratuita en técnicas de identificación y respuesta a manipulación psicológica.
- Talleres de MediaLab Prado: Sesiones presenciales sobre alfabetización mediática avanzada.
- Webinars de la Agencia Española de Protección de Datos: Formación específica sobre derechos digitales.
Comunidades de apoyo:
- Red de Observadores Digitales: Comunidad ciudadana que monitoriza campañas de manipulación.
- Foro de Cultura Digital Crítica: Espacio de debate y acción colectiva sobre autonomía psicológica.
- Asociación de Usuarios Digitales Responsables: Grupo de apoyo mutuo para prácticas digitales saludables.
Estos recursos representan un punto de partida, no un destino. La resistencia a la manipulación psicológica es un proceso continuo que requiere adaptación constante a medida que evolucionan las técnicas y tecnologías.
Conclusiones: hacia una democracia psicológicamente sostenible
El caso Cambridge Analytica no representa simplemente un escándalo corporativo o una anomalía tecnológica; constituye una advertencia sobre las vulnerabilidades fundamentales de nuestros sistemas democráticos en la era digital. La manipulación psicológica masiva representa una amenaza existencial para la democracia tal como la hemos concebido hasta ahora.
Síntesis de los puntos clave
A lo largo de este análisis, hemos examinado:
- Los orígenes militares de estas técnicas y su posterior adaptación a contextos electorales civiles.
- Los fundamentos psicológicos de la manipulación, particularmente el modelo OCEAN y la explotación de sesgos cognitivos.
- Las estrategias específicas implementadas, desde el microtargeting psicográfico hasta las operaciones de información.
- El impacto en procesos democráticos globales y españoles, con atención a la polarización afectiva y la erosión del consentimiento informado.
- Herramientas prácticas de resistencia individual y colectiva frente a estas técnicas.
Lo que emerge de este análisis es una comprensión de la democracia no solo como un sistema político-institucional, sino como un ecosistema psicológico que requiere ciertas condiciones para funcionar adecuadamente. Cuando estas condiciones —autonomía cognitiva, acceso a información diversa, capacidad de deliberación racional— se socavan sistemáticamente, la democracia misma se vuelve insostenible.
Reflexión personal: política, psicología y poder en la era digital
Como psicólogo con una orientación humanista y de izquierdas, considero que el caso Cambridge Analytica ilustra una tendencia más amplia y profundamente preocupante: la instrumentalización del conocimiento psicológico para reforzar estructuras de poder existentes en lugar de promover la emancipación humana.
La psicología nació con la promesa de comprender la mente humana para mejorar nuestra condición. Sin embargo, como hemos visto, este conocimiento puede ser —y está siendo— utilizado para manipular, dividir y desempoderar. Frente a esta realidad, los profesionales de la salud mental tenemos una responsabilidad ética particular: denunciar estos abusos y contribuir a desarrollar contrapesos efectivos.
Mi convicción es que necesitamos urgentemente una «psicología política de la resistencia» que combine rigor científico con compromiso explícito con valores democráticos y emancipatorios. Esta aproximación no pretende ser «neutral» —ninguna posición lo es realmente—, sino transparente sobre sus compromisos éticos y políticos.
Llamada a la acción: por una ciudadanía psicológicamente empoderada
Frente a estos desafíos, propongo un programa de acción en tres niveles:
- Individual: Comprometámonos a desarrollar prácticas cotidianas de higiene informativa y resistencia cognitiva. Pequeños cambios en nuestros hábitos digitales pueden tener efectos significativos en nuestra vulnerabilidad a la manipulación.
- Comunitario: Impulsemos espacios de alfabetización mediática crítica en nuestros entornos cercanos —centros educativos, asociaciones vecinales, colectivos sociales. La resistencia colectiva comienza con conversaciones locales sobre estos temas.
- Político-institucional: Exijamos regulaciones efectivas sobre manipulación psicológica digital y apoyemos iniciativas que promuevan infraestructuras digitales públicas orientadas al bien común democrático.
La batalla por la autonomía psicológica es, en último término, una batalla política. No se trata simplemente de desarrollar mejores filtros cognitivos individuales, sino de transformar las condiciones estructurales que hacen posible y rentable la manipulación masiva.
Como ciudadanos españoles en 2025, nos encontramos en un momento decisivo. Las tecnologías de manipulación psicológica continuarán evolucionando y sofisticándose. Nuestra capacidad para mantener una democracia significativa dependerá, en gran medida, de nuestra voluntad colectiva para desarrollar y fortalecer los «anticuerpos sociales» necesarios para resistir estas técnicas.
La pregunta que debemos hacernos no es si podemos volver a una era pre-digital imaginaria, sino qué tipo de ecosistema digital queremos construir: uno que amplifique nuestras vulnerabilidades psicológicas para beneficio de unos pocos, o uno que fortalezca nuestra autonomía cognitiva y capacidad de deliberación democrática.
La elección, todavía, es nuestra.
Preguntas frecuentes
¿Existen pruebas de que Cambridge Analytica influyera realmente en resultados electorales?
Las evidencias son mixtas. Mientras algunos estudios sugieren un impacto significativo, particularmente en contextos de márgenes electorales estrechos, otros argumentan que la empresa exageró sus capacidades. Lo indiscutible es que sus técnicas han sido posteriormente refinadas y aplicadas por múltiples actores políticos con efectos documentables en comportamiento electoral.
¿Cómo puedo saber si estoy siendo objeto de manipulación psicológica en redes sociales?
No existe un método infalible, pero algunas señales incluyen: recibir contenido que genera respuestas emocionales intensas, notar que la información política que recibes confirma constantemente tus creencias sin desafiarlas, o experimentar un aumento en la hostilidad hacia grupos políticos opuestos sin interacciones reales con ellos.
¿Las nuevas regulaciones europeas como el DSA son suficientes para protegernos?
Representan avances importantes pero insuficientes. Si bien establecen principios valiosos como la transparencia algorítmica y límites al perfilado, enfrentan desafíos significativos de implementación y capacidad sancionadora. Además, las tecnologías de manipulación evolucionan más rápidamente que los marcos regulatorios.
Referencias bibliográficas
Alandete, D. (2019). Fake News: La nueva arma de destrucción masiva. Deusto. https://www.planetadelibros.com/libro-fake-news-la-nueva-arma-de-destruccion-masiva/289283
Areso-Casado, P., Vara-Miguel, A., & Negredo, S. (2022). Escepticismo mediático y resistencia a la desinformación: Un estudio experimental. Revista Latina de Comunicación Social, 80, 31-46. https://nuevaepoca.revistalatinacs.org/
Bakir, V., & McStay, A. (2018). Fake news and the economy of emotions: Problems, causes, solutions. Digital Journalism, 6(2), 154-175. https://doi.org/10.1080/21670811.2017.1345645
Cadwalladr, C. (2018). ‘I made Steve Bannon’s psychological warfare tool’: Meet the data war whistleblower. The Guardian. https://www.theguardian.com/news/2018/mar/17/data-war-whistleblower-christopher-wylie-faceook-nix-bannon-trump
Cadwalladr, C., & Graham-Harrison, E. (2018). Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach. The Guardian. https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election
CCN-CERT. (2023). Informe de amenazas y tendencias en ciberseguridad electoral. Centro Criptológico Nacional. https://www.ccn-cert.cni.es/informes/informes-ccn-cert-publicos.html
Confessore, N. (2018). Cambridge Analytica and Facebook: The scandal and the fallout so far. The New York Times. https://www.nytimes.com/2018/04/04/us/politics/cambridge-analytica-scandal-fallout.html
European Commission. (2023). Special Eurobarometer 527: Digital literacy and online disinformation. Publications Office of the European Union. https://data.europa.eu/doi/10.2759/256
Fundación Alternativas. (2022). Informe sobre la democracia en España 2022: Polarización en el ecosistema digital. Fundación Alternativas. https://www.fundacionalternativas.org/publicaciones/informes
Gerber, A. S., Huber, G. A., Doherty, D., Dowling, C. M., & Ha, S. E. (2011). Personality traits and the consumption of political information. American Politics Research, 39(1), 32-84. https://doi.org/10.1177/1532673X10381466
Grassegger, H., & Krogerus, M. (2017). The data that turned the world upside down. Vice Motherboard. https://www.vice.com/en/article/mg9vvn/how-our-likes-helped-trump-win
Horowitz, M., Maher, M., & Tenenbaum, D. (2023). AI-generated political persuasion: Experimental evidence from GPT-4. Stanford Digital Economy Lab Working Paper. https://digitaleconomy.stanford.edu/publications/
Jost, J. T., Glaser, J., Kruglanski, A. W., & Sulloway, F. J. (2003). Political conservatism as motivated social cognition. Psychological Bulletin, 129(3), 339-375. https://doi.org/10.1037/0033-2909.129.3.339
Kosinski, M., Stillwell, D., & Graepel, T. (2013). Private traits and attributes are predictable from digital records of human behavior. Proceedings of the National Academy of Sciences, 110(15), 5802-5805. https://doi.org/10.1073/pnas.1218772110
Kranish, M. (2016). Cruz campaign paid $750,000 to ‘psychographic profiling’ company. The Washington Post. https://www.washingtonpost.com/politics/cruz-campaign-paid-750000-to-psychographic-profiling-company/2016/10/19/cef373f0-9670-11e6-9b7c-57290af48a49_story.html
LeDoux, J. (2003). The emotional brain, fear, and the amygdala. Cellular and Molecular Neurobiology, 23(4), 727-738. https://doi.org/10.1023/A:1025048802629
Levendusky, M. S. (2018). Americans, not partisans: Can priming American national identity reduce affective polarization? The Journal of Politics, 80(1), 59-70. https://doi.org/10.1086/693987
Pennycook, G., & Rand, D. G. (2020). The cognitive science of fake news. In Z. Papacharissi (Ed.), A Networked Self and Fake News (pp. 90-109). Routledge. https://doi.org/10.4324/9780429279379
Real Instituto Elcano. (2020). Las campañas de desinformación en el proceso independentista catalán: actores, estrategias y objetivos. Real Instituto Elcano. https://www.realinstitutoelcano.org/publicaciones/
Rodríguez-Virgili, J., Serrano-Puche, J., & Fernández, C. B. (2024). Polarización afectiva en la comunicación política española: evolución 2015-2023. Revista de Comunicación Política, 12(1), 45-67. https://doi.org/10.15304/rcp.12.1.8790
Tufekci, Z. (2014). Engineering the public: Big data, surveillance and computational politics. First Monday, 19(7). https://doi.org/10.5210/fm.v19i7.4901
van der Linden, S., Roozenbeek, J., & Compton, J. (2021). Inoculating against fake news about COVID-19. Frontiers in Psychology, 11, 566790. https://doi.org/10.3389/fpsyg.2020.566790
Westen, D. (2007). The political brain: The role of emotion in deciding the fate of the nation. PublicAffairs. https://www.publicaffairsbooks.com/titles/drew-westen/the-political-brain/9781586485733/
Wylie, C. (2019). Mindf*ck: Cambridge Analytica and the plot to break America. Random House. https://www.penguinrandomhouse.com/books/604375/mindfck-by-christopher-wylie/
Youyou, W., Kosinski, M., & Stillwell, D. (2015). Computer-based personality judgments are more accurate than those made by humans. Proceedings of the National Academy of Sciences, 112(4), 1036-1040. https://doi.org/10.1073/pnas.1418680112
Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs. https://www.publicaffairsbooks.com/titles/shoshana-zuboff/the-age-of-surveillance-capitalism/9781610395694/