De la economía de la atención a la economía del apego: cómo la IA rentabiliza nuestras necesidades de conexión y afecto

La inteligencia artificial ya no solo compite por nuestra atención, sino también por nuestros vínculos emocionales. Este artículo analiza la economía del apego: cómo los sistemas de IA explotan la necesidad humana de conexión, comprensión y afecto, transformando la relación humano-tecnología y promoviendo dinámicas de uso intensivo y dependencia emocional.

En los últimos años hemos escuchado hablar mucho de la economía de la atención, ese modelo que impulsa a las redes sociales y plataformas digitales a maximizar el tiempo que pasamos embobados viendo reels. Porque si el uso de plataformas como TikTok o Instagram es aparentemente gratuito, es porque en realidad estás pagando con tu tiempo y tus datos.

Actualmente, una nueva narrativa está ganando tracción entre investigadores y críticos de la tecnología: la economía del apego. Un fenómeno intencional en el que la inteligencia artificial no solo capta nuestra atención, sino que explora y explota nuestras necesidades psicológicas más profundas de conexión y afecto para promover un mayor uso y dependencia.

 

De la atención al apego: un cambio de paradigma

La idea central detrás de la economía del apego es que las tecnologías, especialmente los sistemas de inteligencia artificial conversacional, han empezado a ocupar un nicho que antes estaba reservado exclusivamente a las relaciones humanas: la búsqueda de compañía, comprensión y apoyo emocional.

El Dr. Zak Stein, referente en el futuro de la educación y en los problemas contemporáneos del desarrollo humano, en una conversación con Tristan Harris, especialista en ética tecnológica, publicada por el Center for Humane Technology, señala que la IA ha pasado de ser una herramienta informativa o utilitaria a convertirse en una presencia con la que las personas comparten “sus pensamientos más íntimos; a menudo, cosas que no les dirían a sus seres queridos ni a terapeutas humanos”.

Esta tendencia, que ya se traduce en miles de millones de interacciones diarias con asistentes de IA, para tareas que van desde la consulta terapéutica hasta la simple conversación, podría estar configurando un nuevo tipo de relación psicológica humano-máquina que modifica nuestra estructura afectiva tradicional.

Esto también introduce una diferencia clave entre las plataformas de inteligencia artificial conversacional: la dificultad de cambiar de una a otra. Del mismo modo que resulta complejo cambiar de amigos, también lo es abandonar una herramienta que sabe todo sobre nosotros para pasar a otra con la cual deberíamos iniciar un vínculo desde cero. Esto implica, para las plataformas que necesitan ser rentables y competir por los usuarios —como ChatGPT, Gemini, Grok, entre otras—, la generación de una resistencia al cambio y una marcada aversión a la pérdida.

 

¿Qué es el attachment hacking y qué riesgos plantea?

Los autores del análisis señalan que la inteligencia artificial moderna no se limita a atraer nuestra atención, sino que interactúa con nuestro sistema de apego: una arquitectura psicológica evolucionada para relacionarnos con otros seres humanos de forma profunda y significativa. Este sistema —que en psicología del desarrollo se vincula con la forma en que nos relacionamos con nuestras figuras de afecto durante la infancia y la vida adulta— es crítico para la identidad, la seguridad emocional y la regulación afectiva.

El fenómeno que Stein y Harris denominan attachment hacking consiste en que la IA, al ser omnipresente, siempre disponible y aparentemente comprensiva, termina por convertirse en un objeto de apego. A diferencia de una relación interpersonal real —donde existe reciprocidad, límites y autonomía—, la IA simula empatía, atención constante y aprobación incondicional, lo que puede interferir con nuestra capacidad para formar y sostener vínculos saludables con otros humanos.

 

Consecuencias extremas y “AI psychosis”

En casos extremos, se ha documentado lo que se ha denominado AI psychosis: un fenómeno no clínico, recientemente descrito, en el que la interacción intensa e inmersiva con chatbots de IA desencadena o amplifica delirios, paranoia y pérdida de contacto con la realidad. Aunque este fenómeno sigue siendo objeto de debate y requiere mayor evidencia empírica, resulta una señal de alerta relevante.

 

¿Por qué estamos más vulnerables ahora?

Varias condiciones sociales contemporáneas aumentan la susceptibilidad a estas dinámicas:

  • Epidemia de soledad y aislamiento, exacerbada por la fragmentación comunitaria pospandemia. Un dato ilustrativo: según la Organización Mundial de la Salud, 1 de cada 6 personas se siente sola. Demostrando que no se trata de una percepción aislada ni de un problema individual, sino de un fenómeno global.
  • Escasez de atención en salud mental accesible, lo que lleva a muchas personas a buscar apoyo en alternativas digitales.
  • Diseño tecnológico centrado en el engagement y la retención emocional, que prioriza métricas de uso por sobre el bienestar humano y que se encuentra poco o nulamente regulado.

Este escenario recuerda algunas de las advertencias clásicas sobre la economía de la atención, pero con un matiz más profundo: ya no se trata solo de cuánto tiempo pasamos frente a una pantalla, sino de cómo los lazos “emocionales” con interfaces digitales reconfiguran nuestras necesidades afectivas y sociales.

 

¿Es una amenaza o una oportunidad?

El debate no es unívoco. Hay quienes sostienen que el uso de la IA como apoyo emocional puede ofrecer beneficios reales: desde asistencia en salud mental en contextos donde los recursos son escasos hasta tutoría educativa personalizada. Sin embargo, el riesgo identificado por los críticos es que, sin marcos regulatorios éticos, diseño responsable y evidencia científica robusta, estas tecnologías podrían desencadenar efectos no deseados a gran escala.

Además, la discusión sobre la economía del apego no se limita a la IA. Columnistas y analistas culturales señalan que, en muchos ámbitos de la sociedad —mercados, medios, política—, también existen intentos de capturar afectos, lealtades y compromisos emocionales como recursos. Aunque en estos contextos la preocupación se inscribe más en dinámicas sociales amplias que en interacciones humano-máquina, el núcleo del problema es similar: nuestras necesidades afectivas están siendo mediadas y rentabilizadas por sistemas externos.

 

¿Hacia dónde mirar?

Esta conversación plantea preguntas urgentes para todos los actores de la sociedad:

  • ¿Cómo medir y mitigar los riesgos asociados a interacciones emocionales profundas con IA?
  • ¿Qué normas éticas deberían regular el diseño y funcionamiento de tecnologías que apelan a las necesidades afectivas humanas?
  • ¿Cómo fortalecer las relaciones humanas y comunitarias en un entorno cada vez más mediado por la tecnología?

La discusión sobre la economía del apego nos invita a reflexionar no solo sobre el papel de la IA en nuestras vidas, sino sobre qué tipo de relaciones tenemos hoy y qué tipo de vínculos queremos cultivar en el futuro.

 

Para finalizar

Todo este texto es una interpretación personal, inevitablemente atravesada por sesgos. Por eso, la invitación es a profundizar en este tema y sacar sus propias conclusiones viendo la charla completa entre el Dr. Zak Stein y Tristan Harris (disponible en YouTube) y, luego de hacerlo, volver a leer este texto con una mirada crítica.

Recomendación para profundizar: ¿Quién controla la inteligencia artificial? Una mirada crítica sobre la concentración de poder y el desafío de una regulación democrática

 

Para mantenerte al día con los últimos avances científicos

Sumate al canal de WhatsApp de AE, cuyo objetivo es ayudarte a comprender mejor la ciencia y brindarte una fuente de actualización constante, simple y accesible desde tu celular.





 

Bibliografía:

  • Cortés-Quesada, J. A., & Vizcaíno-Verdú, A. . (2025). Consumo fragmentado de marcas en TikTok: El impacto de la publicidad en la generación Alfa. Revista De Comunicación, 24(1), 109–125. https://doi.org/10.26441/RC24.1-2025-3659
  • Guzmán Brand, V. A., & Gélvez García, L. E. (2023). Adicción o uso problemático de las redes sociales online en la población adolescente. Una revisión sistemática. Psicoespacios, 17(31), 1–22. https://doi.org/10.25057/21452776.1511
  • Heng, S., & Zhang, Z. (2025). Attachment Anxiety and Problematic Use of Conversational Artificial Intelligence: Mediation of Emotional Attachment and Moderation of Anthropomorphic Tendencies. Psychology Research and Behavior Management, 18, 1775–1785. https://doi.org/10.2147/PRBM.S531805
  • Huang, S., Lai, X., Ke, L., Li, Y., Wang, H., Zhao, X., Dai, X., & Wang, Y. (2024). AI Technology panic-is AI Dependence Bad for Mental Health? A Cross-Lagged Panel Model and the Mediating Roles of Motivations for AI Use Among Adolescents. Psychology Research and Behavior Management, 17, 1087–1102. https://doi.org/10.2147/PRBM.S440889
  • Montag, C., Yang, H., Wu, A. M. S., Ali, R., & Elhai, J. D. (2025). The role of artificial intelligence in general, and large language models specifically, for understanding addictive behaviors. Annals of the New York Academy of Sciences, 1548(1), 5–11. https://doi.org/10.1111/nyas.15337
  • Sümen, A., & Evgin, D. (2021). Social Media Addiction in High School Students: A Cross-Sectional Study Examining Its Relationship with Sleep Quality and Psychological Problems. Child Indicators Research, 14, 2265–2283. https://doi.org/10.1007/s12187-021-09838-9
  • Pellegrino, A., Stasi, A., & Bhatiasevi, V. (2022). Research trends in social media addiction and problematic social media use: A bibliometric analysis. Frontiers in Psychiatry, 13, 1017506. https://doi.org/10.3389/fpsyt.2022.1017506
  • Robayo-Pinzon, O., Rojas-Berrio, S., Camargo, J. E., & Foxall, G. R. (2025). Generative artificial intelligence (GenAI) use and dependence: an approach from behavioral economics. Frontiers in Public Health, 13, 1634121. https://doi.org/10.3389/fpubh.2025.1634121
  • Yankouskaya, A., Liebherr, M. & Ali, R. (2025) Can ChatGPT Be Addictive? A Call to Examine the Shift from Support to Dependence in AI Conversational Large Language Models. Human-Centric Intelligent Systems, 5, 77–89. https://doi.org/10.1007/s44230-025-00090-w
  • Zhao, J., Jia, T., Wang, X., Xiao, Y., & Wu, X. (2022). Risk Factors Associated With Social Media Addiction: An Exploratory Study. Frontiers in Psychology, 13, 837766. https://doi.org/10.3389/fpsyg.2022.837766
Cómo citar esta publicación: Logatt Grabner, C. Y. (2025). De la economía de la atención a la economía del apego: cómo la IA rentabiliza nuestras necesidades de conexión y afecto. Asociación Educar para el Desarrollo Humano. https://asociacioneducar.com/blog/de-la-economia-de-la-atencion-a-la-economia-del-apego-como-la-ia-rentabiliza-nuestras-necesidades-de-conexion-y-afecto/
https://orcid.org/0009-0008-0256-7568
Director Ejecutivo en Asociación Educar para el Desarrollo Humano | Máster en Administración y Dirección de Empresas (MBA) con especialidad en Negocios Sostenibles, Universidad Internacional de Valencia | Licenciado en Marketing, Universidad Maimónides | Secretario y Responsable de Inclusión Sociolaboral (ad honorem), Asociación Civil Las Piedras | Coautor de 8 publicaciones académicas.