Cómo la Inteligencia Artificial Manipula lo que Creemos: Impacto de la IA en Emociones, Sociedad y Democracia

La inteligencia artificial (IA) se ha convertido en una de las transformaciones tecnológicas más profundas de nuestra época. En apenas una década pasó de ser un campo especializado de investigación científica a una presencia ubicua en la vida cotidiana:

  • motores de búsqueda,
  • redes sociales,
  • plataformas educativas,
  • sistemas de salud,
  • bancos y gobiernos la utilizan de manera constante.

El gran atractivo de estas tecnologías radica en su capacidad para procesar volúmenes masivos de datos en tiempo real y, a partir de allí, anticipar patrones de conducta, recomendar decisiones o directamente reemplazar tareas humanas.

El entusiasmo que despierta la IA convive, sin embargo, con un creciente conjunto de interrogantes. Ya no se trata únicamente de discutir si las máquinas pueden realizar cálculos más rápidos o diagnósticos más precisos, sino de analizar hasta qué punto están empezando a influir sobre dimensiones profundamente humanas como las emociones, la identidad o la libertad de expresión. Lo que está en juego no es solo el uso de herramientas más eficientes, sino la posibilidad de que los algoritmos participen en la definición de lo que sentimos y en la forma en que expresamos nuestras opiniones en el espacio público.

Este artículo busca explorar ese cruce complejo entre inteligencia artificial, emociones y libertad de expresión. La hipótesis central es que el avance de sistemas capaces de reconocer y manipular emociones abre un campo de oportunidades –por ejemplo, en salud mental o en educación personalizada– pero al mismo tiempo plantea riesgos significativos para la vida democrática. Para ello, se abordará primero cómo la IA traduce lo emocional en datos y qué limitaciones implica este proceso. Luego se analizará la forma en que los algoritmos configuran la expresión en la esfera pública, premiando ciertas emociones e invisibilizando otras. Más adelante se examinarán las tensiones éticas y sociales que derivan de este proceso, para finalmente proponer una reflexión sobre los desafíos inmediatos que enfrentan nuestras sociedades.

 

Inteligencia Artificial y el reconocimiento de emociones

Desde los inicios de la psicología moderna se ha discutido si las emociones son universales o si, por el contrario, dependen de contextos culturales y sociales. La inteligencia artificial entra en este debate con una lógica muy distinta: necesita traducir lo complejo en categorías simples que puedan ser procesadas computacionalmente. Así, muchas aplicaciones de IA trabajan con una lista reducida de emociones básicas –alegría, tristeza, miedo, enojo, sorpresa, asco– a las que asocian expresiones faciales, tonos de voz o patrones de conducta.

El resultado es un sistema capaz de identificar “rasgos emocionales” en fotografías, audios o textos. Empresas de recursos humanos aplican estas tecnologías en entrevistas laborales para detectar supuestos niveles de entusiasmo o sinceridad en los candidatos. Plataformas de atención al cliente las usan para medir la satisfacción en tiempo real y ajustar la interacción según la reacción detectada. Incluso existen programas que analizan la voz de los pacientes en consultas médicas remotas con el objetivo de reconocer señales de ansiedad o depresión.

Sin embargo, conviene no perder de vista las limitaciones de este enfoque:

  • En primer lugar, los algoritmos no sienten ni comprenden emociones: simplemente procesan correlaciones estadísticas entre datos y categorías predefinidas.
  • En segundo lugar, al entrenarse con bases de datos construidas en contextos culturales específicos, tienden a reproducir sesgos.

Una sonrisa puede ser interpretada como cortesía en una sociedad y como burla en otra; una mirada fija puede significar respeto o, por el contrario, desafío. Los algoritmos no distinguen estas sutilezas y, por tanto, corren el riesgo de imponer interpretaciones reduccionistas sobre realidades diversas.

A esto se agrega la ilusión de objetividad. Cuando una máquina “detecta” tristeza o enojo, el resultado adquiere un aura de neutralidad técnica que muchas veces no posee. En un proceso de selección laboral, por ejemplo, la decisión de descartar a un candidato porque el algoritmo supuso que estaba nervioso no refleja una verdad universal, sino la aplicación de un modelo construido sobre supuestos culturales y estadísticos. La consecuencia puede ser discriminatoria y, al mismo tiempo, difícil de impugnar porque se ampara en la opacidad de sistemas presentados como infalibles.

Recomendación para profundizar: Clase gratuita: «Inteligencia Artificial: Desafíos Éticos en Salud y Educación»

 

Algoritmos, emociones y libertad de expresión

El reconocimiento de emociones por parte de la inteligencia artificial no se limita al plano individual, sino que también configura la manera en que nos comunicamos colectivamente.

Las redes sociales son el ejemplo más evidente. Sus algoritmos de recomendación priorizan contenidos capaces de generar reacciones emocionales intensas:

  • indignación,
  • entusiasmo,
  • miedo,
  • sorpresa.

La lógica es sencilla: cuanto mayor es la carga emocional de un contenido, más tiempo permanece el usuario conectado, lo que se traduce en más publicidad y ganancias para la plataforma.

Este mecanismo tiene implicancias directas sobre la libertad de expresión. Los mensajes que circulan con mayor rapidez no necesariamente son los más veraces o los más racionales, sino aquellos que despiertan emociones más fuertes. La consecuencia es una distorsión del debate público, en la que las ideas moderadas o matizadas pierden visibilidad frente a los extremos. En lugar de promover un intercambio plural, los algoritmos refuerzan las cámaras de eco, encerrando a los usuarios en burbujas donde solo reciben confirmación de sus creencias previas.

El impacto se extiende también a lo que no vemos. Si un mensaje no provoca reacciones suficientes, puede quedar sepultado en la invisibilidad algorítmica, aunque sea relevante para el debate social. La censura ya no adopta la forma de una prohibición explícita, sino de un silenciamiento indirecto mediante el control de la visibilidad. Se trata de una censura invisible, pero con efectos muy reales sobre quiénes pueden participar efectivamente en la esfera pública y quiénes quedan relegados.

En este sentido, la gestión algorítmica de la emoción no solo influye en qué contenidos circulan, sino también en qué tipo de emociones se legitiman como socialmente aceptables. Los mensajes que generan controversia pueden ser despriorizados bajo el argumento de evitar “conflictos” o “discursos dañinos”, aunque en realidad lo que se limita es la expresión de perspectivas críticas. El problema no es menor: cuando se restringe el disenso bajo el manto de la seguridad o la armonía digital, se debilitan los fundamentos mismos de la deliberación democrática.

 

Riesgos éticos y sociales

El avance de la inteligencia artificial en el reconocimiento y manipulación de emociones, así como en la configuración de la libertad de expresión, plantea un conjunto de riesgos que trascienden lo técnico para instalarse en el corazón de lo ético y lo político:

  • Uno de los primeros riesgos es la objetivización de las emociones. Al traducir experiencias humanas complejas en datos cuantificables, se corre el peligro de reducir lo emocional a un simple marcador numérico. Esta reducción no solo empobrece nuestra comprensión de la vida afectiva, sino que además legitima decisiones automatizadas que pueden afectar oportunidades laborales, acceso a servicios o interacciones cotidianas.
  • Un segundo riesgo es la perpetuación y amplificación de sesgos. Los sistemas de IA aprenden de datos históricos y, en consecuencia, reproducen desigualdades preexistentes. Si las bases de entrenamiento reflejan estereotipos de género, raciales o culturales, los algoritmos tenderán a replicarlos. En el ámbito emocional, esto puede implicar que ciertas expresiones sean interpretadas como negativas o inapropiadas en función de parámetros sesgados, lo que afecta de manera desproporcionada a grupos minoritarios.
  • La manipulación política constituye otro riesgo central. Al aprovechar la capacidad de los algoritmos para identificar emociones, es posible diseñar campañas de desinformación altamente segmentadas, que buscan provocar miedo, ira o entusiasmo en sectores específicos de la población. El terreno de la política se convierte así en un campo donde las emociones, más que los argumentos, determinan los resultados. El peligro no reside únicamente en la polarización, sino también en la erosión de la confianza pública en la información y en las instituciones.
  • Asimismo, la normalización de la vigilancia emocional merece atención. Cuando empresas o gobiernos pueden monitorear expresiones faciales, tonos de voz o patrones de interacción, la privacidad se ve amenazada de un modo sin precedentes. No se trata solo de recolectar datos sobre lo que hacemos, sino también sobre lo que sentimos. Esta intromisión en la esfera íntima puede derivar en prácticas de control social sutiles, pero profundamente invasivas, que minan la autonomía individual.
  • Por último, existe un riesgo más estructural: el debilitamiento de la democracia deliberativa. Si los algoritmos privilegian el impacto emocional por encima de la calidad del contenido, el espacio público se transforma en un espectáculo de estímulos diseñados para captar atención más que en un foro de discusión de ideas. La consecuencia es un deterioro de la capacidad ciudadana para dialogar, deliberar y construir consensos, pilares fundamentales de toda democracia.
 

Conclusión

La intersección entre inteligencia artificial, emociones y libertad de expresión abre un debate crucial para nuestras sociedades.

La IA ofrece oportunidades significativas:

  • puede contribuir a la detección temprana de problemas de salud mental,
  • facilitar interacciones personalizadas
  • y enriquecer experiencias educativas.

Sin embargo, estos beneficios no deben ocultar los riesgos asociados a la manipulación emocional, la invisibilización de voces críticas y la consolidación de un modelo de comunicación dominado por la lógica de la atención y el lucro.

El futuro no está predeterminado. Dependerá de las decisiones que se tomen hoy en materia de regulación, ética y diseño institucional. Los algoritmos no deben convertirse en árbitros invisibles de lo que sentimos ni de lo que podemos decir. Por el contrario, es imprescindible que gobiernos, empresas, académicos y ciudadanos construyan marcos de acción que garanticen la transparencia, la diversidad y el respeto por los derechos fundamentales.

La inteligencia artificial no es, en sí misma, una amenaza para las emociones ni para la libertad de expresión. Lo problemático es cómo se la utiliza y bajo qué valores se orienta su desarrollo.

Si se la concibe como una herramienta al servicio de la sociedad, puede potenciar lo humano y ampliar nuestras capacidades. Si se la deja librada al interés exclusivo de corporaciones privadas, corre el riesgo de uniformar culturas, manipular sensibilidades y restringir libertades.

El verdadero desafío consiste en mantener el control humano sobre lo humano: asegurarnos de que las personas sigan siendo las protagonistas de sus emociones y de sus palabras. La innovación tecnológica debe estar acompañada por un compromiso ético que ponga en el centro a la autonomía y la dignidad. Solo así la inteligencia artificial podrá convertirse en un aliado y no en una amenaza para nuestras democracias.

Recomendación para profundizar: Inteligencia Artificial Generativa: Una Aliada Emergente para la Lectura y la Escritura en la Era Digital

 

Para mantenerte al día con los últimos avances científicos

Sumate a la comunidad de WhatsApp de AE, donde vas a encontrar una fuente práctica y accesible de actualización académica en tu celular.





 

Bibliografía:

  • Ballesteros Aguayo, Lucia y Ruiz del Olmo, Francisco Javier (2024). Vídeos falsos y desinformación ante la IA: el deepfake como vehículo de la posverdad [Fake videos and disinformation before the AI: deepfake as a post-truth vehicle]. Revista de Ciencias de la Comunicación e Información, 29, 1-14. https://doi.org/10.35742/rcci.2024.29.e294
  • Belli, S., & Florez, H. (2024). Inteligencia artificial y emociones. Revista Científica, 49(1). https://revistas.udistrital.edu.co/index.php/revcie/article/view/22705/20723
  • Borrego-Ramírez, N., Ruiz-Cansino, M. L., & Borrego-Gómez, D. D. (2023). La posverdad en América Latina y el Caribe: Una perspectiva netnográfica de la agnogénesis. CienciaUAT, 18(1), 158-177. https://doi.org/10.29059/cienciauat.v18i1.1716
  • Cantor Rosales, M. J., Gómez Ramírez, G. J., Zúniga Velásquez, M. N., Salinas Aguiriano, R. S., & Sánchez Maradiaga, L. A. (2025). Libertad de expresión en las redes sociales: análisis de la censura automatizada por inteligencia artificial. La Revista De Derecho, 45(1), 295–310. https://doi.org/10.5377/lrd.v45i1.19390
  • Enciso, I. G. (2024). Mito, ciencia, fake news y posverdad. En Líneas Generales, (011), 87-98. https://doi.org/10.26439/en.lineas.generales2024.n011.7372
  • Kalpokas, I. (2024). Post-truth and information warfare in their technological context. ACIG, 4,  2. https://doi.org/10.60097/ACIG/190407
  • Larrondo, M. E., & Grandi, N. M. (2021). Inteligencia Artificial, algoritmos y libertad de expresión. Universitas-XXI, Revista de Ciencias Sociales y Humanas, (34), 177-194. https://doi.org/10.17163/uni.n34.2021.08
  • Seo, D. H. (2024). Much Ado about Disinformation: A Critical Approach to Coping with Information Manipulation in a Post-Truth World. Scientia Militaria: South African Journal of Military Studies, 52(2), 105-120. https://doi.org/10.5787/52-2-1467
  • Zhakin, S. M., & Mukan, N. (2025). Digital Technologies and the Reformatting of Values in the Post-Truth Era. Bulletin of the Karaganda university History. Philosophy series, 11830(2), 241-247. https://doi.org/10.31489/2025hph2/241-247
Cómo citar esta publicación: Manzano, F. A. (2025). Cómo la Inteligencia Artificial Manipula lo que Creemos: Impacto de la IA en Emociones, Sociedad y Democracia. Asociación Educar para el Desarrollo Humano. www.asociacioneducar.com/blog/como-la-inteligencia-artificial-manipula-lo-que-creemos-impacto-de-la-ia-en-emociones-sociedad-y-democracia
https://orcid.org/0000-0002-1513-4891
Investigador del CONICET. Doctor en Demografía (UNC). Licenciado en Economía (UBA) y Licenciado en Sociología (UBA). Ha sido autor y coautor de más de 60 artículos científicos en revistas indexadas, 4 libros y más de 15 capítulos en libros. Realiza divulgación en el canal de YouTube: “Datos y Ciencias Sociales”.