Este artículo explora si la inteligencia artificial es una revolución transformadora o una burbuja alimentada por dinero, relatos de progreso y fe tecnológica. Analiza riesgos económicos, cognitivos y sociales, y propone recuperar la reflexión crítica para que la IA sea herramienta y no autoridad que reemplace la autonomía humana.
Introducción
Hay momentos en la historia de la humanidad en los que una tecnología despliega tal rapidez, tal contundencia y tal capacidad de infiltrarse en todos los rincones de la vida social, que las sociedades quedan atrapadas en un estado de fascinación colectiva que apenas deja margen para la reflexión. Cada época conoció su deslumbramiento:
- la máquina de vapor que alteró el ritmo del mundo,
- la electricidad que iluminó noches eternas,
- Internet que abrió dimensiones inéditas de comunicación.
Sin embargo, ninguna de esas innovaciones tuvo la aceleración, la ubicuidad ni la presión simbólica que hoy exhibe la inteligencia artificial, cuya expansión vertiginosa parece desafiar la capacidad humana de comprenderla, regularla o incluso cuestionarla.
En un lapso asombrosamente breve, la IA pasó de ser un experimento académico reservado a laboratorios especializados a convertirse en el eje de transformaciones económicas, científicas, culturales y políticas que avanzan con una intensidad que, lejos de estabilizarse, se amplifica con cada nuevo anuncio corporativo, con cada modelo más grande, con cada integración en aplicaciones cotidianas que reorganizan silenciosamente la manera en que trabajamos, nos informamos, aprendemos, decidimos y nos relacionamos.
Lo notable no es solo su impacto práctico, sino la forma en que la IA ha comenzado a ocupar un lugar que antes estaba reservado para ideas casi sagradas:
- el lugar del orden en medio del caos,
- de la precisión en un mundo saturado de incertidumbre,
- de la racionalidad en un contexto donde la información se ha vuelto excesiva, difusa y fragmentada.
En este clima emocional, donde la fatiga cognitiva convive con un hambre desesperada de claridad, la inteligencia artificial aparece como un faro capaz de iluminar las zonas de sombra que la complejidad contemporánea nos impide descifrar por nuestra cuenta.
Y sin embargo, precisamente por esa potencia simbólica, surge la pregunta incómoda que suele quedar relegada a un segundo plano: ¿hasta qué punto estamos ante una revolución transformadora, y hasta qué punto estamos proyectando sobre la IA un conjunto de deseos, miedos, ilusiones y esperanzas que podrían estar inflando una burbuja cuyo estallido no solo sería económico, sino cognitivo, social y cultural? La velocidad con la que adoptamos la IA ha sido tan superior a nuestra capacidad de examinarla críticamente que, si no interrogamos este fenómeno ahora, quizás lo hagamos demasiado tarde, cuando los efectos ya sean irreversibles.
Economía en trance: la narrativa que hipnotiza al mercado global
La economía global ha entrado en un estado de excitación tan intenso que resulta difícil distinguir dónde termina el análisis racional y dónde comienza la narrativa que se alimenta a sí misma. Las grandes revoluciones económicas siempre estuvieron acompañadas por relatos seductores, pero en el caso de la inteligencia artificial el relato ha adquirido un carácter casi épico, impulsado por cifras que crecen de manera desproporcionada respecto de los resultados concretos, por promesas de eficiencia ilimitada y por una convicción casi religiosa de que estamos ante la piedra angular del crecimiento económico de las próximas décadas.
Los flujos de inversión, que deberían responder a evaluaciones cautelosas, se comportan como si estuvieran obedeciendo a una lógica emocional más que estratégica:
- fondos de riesgo que destinan miles de millones a startups sin modelos de negocio sólidos,
- empresas multinacionales que reorganizan departamentos enteros solo para anunciar que “incorporan IA”,
- bancos que ajustan estructuras centenarias para no parecer rezagados,
- gobiernos que presienten que el prestigio geopolítico se mide por la cantidad de centros de datos
- y estrategias nacionales de IA que sean capaces de anunciar.
El mercado opera en un estado de trance. No invierte porque comprenda profundamente la tecnología, sino porque teme quedar afuera de un tren que parece avanzar sin frenos. La tendencia a la imitación, la presión competitiva y la ansiedad por demostrar modernidad crean un clima donde las decisiones se toman para no ser el último en moverse, no para ser el primero en comprender.
Este ciclo de expectativas se sostiene sobre un mecanismo bien conocido por la historia económica: la profecía autocumplida. Cuando suficientes actores creen que la IA transformará la productividad global, reorganizan inversiones, políticas de contratación, desarrollos técnicos y estructuras organizacionales en función de esa creencia, generando así un movimiento real que, sin embargo, no necesariamente confirma la narrativa original, sino que la imita. Las burbujas nunca nacen de la mentira; nacen de la exageración, de la extrapolación, de la incapacidad colectiva para considerar límites.
La economía es especialmente vulnerable a este tipo de espejismos porque los mercados, que deberían ser guardianes de la racionalidad, tienden a enamorarse de sus propias historias. Lo que se repite lo suficiente se vuelve verdad, aunque no lo sea. Lo que genera entusiasmo suficiente se vuelve inversión, aunque sea prematura. Y lo que promete un futuro brillante se vuelve incuestionable, aunque su brillo provenga más del deseo que del análisis.
En este contexto, el riesgo de una burbuja tecnológica no es hipotético: es estructural. La economía global ha construido una narrativa de inevitabilidad alrededor de la IA que la vuelve inmune a la duda, y cuando una economía deja de dudar, deja de pensar, y cuando deja de pensar, se precipita hacia los errores que más tarde llama “inesperados” aunque eran visibles desde el principio.
La fe en la máquina: la delegación emocional que erosiona la autonomía humana
Si la economía está atrapada en un relato, las personas están atrapadas en otro todavía más profundo: la idea de que la inteligencia artificial no solo facilita tareas, sino que piensa por nosotros de un modo más claro, más preciso y más libre de errores que cualquier ser humano. Esta convicción, que aparece en discursos de marketing, en conversaciones cotidianas y en decisiones que millones de personas toman cada día, no se basa en una comprensión técnica real, sino en un fenómeno psicológico: la transferencia de autoridad hacia una máquina que proyecta confiabilidad por su velocidad, su consistencia sintáctica y su aparente neutralidad.
La confianza ciega en la IA no surge de su solidez epistemológica, sino de nuestra necesidad emocional de descanso cognitivo. En un mundo donde estamos expuestos permanentemente a información contradictoria, sobrecargados de datos, exigidos a tomar decisiones rápidas y saturados por la complejidad, delegarle decisiones a la IA resulta cómodamente tentador. La máquina no duda, no se cansa, no muestra inseguridad, no expresa emociones desordenadas. Esa ausencia de humanidad se interpreta erróneamente como racionalidad.
Sin embargo, la neutralidad algorítmica es un espejismo. Los modelos aprenden de patrones humanos, y reproducen tanto nuestras virtudes como nuestras miserias:
- sesgos,
- prejuicios,
- desigualdades,
- errores sistemáticos.
Pero lo que hace a la IA especialmente peligrosa no es su falibilidad, sino la forma en que su apariencia de infalibilidad erosiona lentamente la autonomía humana. Cuando empezamos a creer que la máquina “sabe más” que nosotros, dejamos de verificar, dejamos de dudar, dejamos de ejercer el juicio crítico que durante siglos fue el fundamento de la vida democrática, científica y moral.
Esta transferencia de autoridad se ha convertido en una forma de fe laica. No es una religión organizada, pero posee sus rasgos: la IA actúa como oráculo, como mediadora entre el individuo y el caos del mundo, como intérprete autorizado de realidades demasiado complejas para ser comprendidas por el común de las personas. Consultamos a la máquina como quien consulta a una figura de sabiduría: se le pide una guía, una dirección, una visión del problema que alivie la angustia de decidir por cuenta propia.
Y esa fe, aunque parezca inofensiva, tiene consecuencias profundas. Cuando una sociedad comienza a considerar a la IA como una voz autorizada, aunque no lo diga abiertamente, la frontera entre herramienta y autoridad comienza a desdibujarse. Y en ese desdibujamiento se pierde algo esencial: la capacidad humana de deliberar.
La burbuja silenciosa: el riesgo sistémico que crece donde nadie mira
Mientras la narrativa triunfalista celebra cada avance técnico como una victoria indiscutible, bajo la superficie se acumula una constelación de riesgos que rara vez reciben atención proporcional a su gravedad. La inteligencia artificial introduce fragilidades que afectan simultáneamente al sistema financiero, a la infraestructura crítica, a la estabilidad institucional y, quizá de manera más alarmante, a la autonomía cognitiva de la ciudadanía.
En el sistema financiero, los riesgos son especialmente agudos porque los algoritmos tienden a replicar patrones de comportamiento que, al multiplicarse, amplifican la volatilidad del mercado. Modelos entrenados sobre los mismos datos producen decisiones similares, y cuando decisiones similares se ejecutan de manera simultánea y automática, el mercado deja de ser un conjunto de agentes independientes y se convierte en una sola entidad gigante, predecible, vulnerable y extremadamente propensa a los shocks.
La concentración de infraestructuras críticas –desde centros de datos hasta proveedores de hardware especializado– convierte a la IA en un sistema con cuellos de botella peligrosos. Un error en uno de esos nodos, una interrupción energética, una falla de seguridad o un ataque malicioso puede desencadenar un efecto dominó que atraviese reinos económicos, afecte operaciones esenciales e incluso debilite la capacidad del Estado para reaccionar a tiempo. Ninguna tecnología con semejante nivel de dependencia debería considerarse estable, y sin embargo, la adopción acelerada avanza como si esas advertencias fueran notas al pie sin importancia.
Pero la dimensión más inquietante no es la técnica. Es la cognitiva. La burbuja silenciosa se infla cada vez que renunciamos a pensar por cuenta propia. Cada vez que aceptamos recomendaciones automatizadas sin contrastarlas. Cada vez que dejamos que la IA filtre la información que vemos. Cada vez que permitimos que la máquina intervenga en decisiones fundamentales sin exigir explicaciones comprensibles.
La erosión cognitiva es más peligrosa que cualquier falla técnica porque es imperceptible, gradual y perfectamente compatible con una vida cotidiana funcional. La gente no nota que piensa menos; solo nota que la IA resuelve las cosas más rápido. Pero cuando una sociedad deja de pensar críticamente, deja de ser libre, y cuando deja de ser libre, la tecnología deja de ser una herramienta para convertirse en una estructura de dependencia.
La burbuja silenciosa crece no porque la tecnología falle, sino porque los humanos dejamos de interrogarla.
Conclusiones
La pregunta inicial –¿burbuja o revolución?– no necesita una respuesta excluyente, porque ambas son simultáneamente verdaderas. La inteligencia artificial es una revolución indiscutible que puede transformar sectores enteros, rediseñar procesos productivos, acelerar descubrimientos científicos, ofrecer diagnósticos más precisos, democratizar herramientas cognitivas y expandir fronteras que hace una década parecían inaccesibles. Pero también es una burbuja alimentada por narrativas infladas, por proyecciones que se aceptan como inevitables, por inversiones impulsadas más por el miedo a quedar afuera que por la racionalidad económica, y, sobre todo, por la creciente tendencia humana a confiar en la máquina como si fuera una forma de inteligencia superior.
La gravedad del momento no reside en la tecnología, sino en la facilidad con la que el deslumbramiento desplaza la reflexión. La historia demuestra que las burbujas no estallan cuando la tecnología falla, sino cuando la sociedad que la rodea deja de mantener el equilibrio entre entusiasmo y prudencia, entre deseo y análisis, entre esperanza y responsabilidad.
Lo inquietante es que esta vez el daño no sería solamente económico. Si aceptamos la autoridad de la IA sin exigir transparencia, si renunciamos a la autonomía cognitiva por comodidad, si convertimos a la máquina en juez de decisiones personales y sociales, si dejamos que la narrativa de inevitabilidad eclipse toda alternativa, entonces lo que puede estallar no será solo un mercado, sino la capacidad colectiva de deliberar, discernir y pensar críticamente.
La inteligencia artificial puede ser una herramienta extraordinaria si la tratamos como tal, pero puede convertirse en una prisión silenciosa si dejamos que nos acostumbre a no cuestionar. El desafío no consiste en apagar el entusiasmo, sino en sostener la lucidez; no en rechazar la tecnología, sino en impedir que la tecnología suplante la responsabilidad humana. Porque si el futuro de la IA depende únicamente de la fe que colocamos en ella, y no de la reflexión crítica que debería acompañarla, entonces el mayor riesgo no será un colapso financiero, sino una renuncia cultural a la capacidad que nos hace humanos: la de pensar por nuestra cuenta.
Recomendación para profundizar: Cómo la Inteligencia Artificial Manipula lo que Creemos: Impacto de la IA en Emociones, Sociedad y Democracia
Diplomatura Universitaria en Inteligencia Artificial con Enfoque Humano
Una propuesta diseñada para profesionales que buscan aplicar la inteligencia artificial con ética y sensibilidad en contextos de cuidado, educación y acompañamiento humano.
Bibliografía:
- Basele, R. B., Phillips, P. C., & Shi, S. (2025). Speculative bubbles in the recent AI boom: Nasdaq and the Magnificent Seven. Journal of Time Series Analysis, 46(5), 814-828. https://onlinelibrary.wiley.com/doi/abs/10.1111/jtsa.12835
- Fulmer, R. (2024). A Primer on How Al algorithms Control You. Journal of Technology in Counselor Education and Supervision, 5(2), 1. https://digital.sandiego.edu/tces/vol5/iss2/1/
- Ungar-Sargon, J. (2025). AI and Spirituality: The Disturbing Implications. Journal of Medical – Clinical Research & Reviews, 9(3), 1-7. https://www.drungar.com/s/TIMJ-25-070.pdf
- Coeckelbergh, M. (2025). AI and Epistemic Agency: How AI Influences Belief Revision and Its Normative Implications. Social Epistemology, 1–13. https://doi.org/10.1080/02691728.2025.2466164
- Georgios, P. (2025). Empowering sustainable finance with artificial intelligence: a framework for responsible implementation, In: Lee, Joseph Darbellay, Aline (Ed.): A Research Agenda for Financial Law and Regulation, ISBN 978-1-80392-999-6, Edward Elgar, Cheltenham, pp. 23-38, https://doi.org/10.4337/9781803929996.00009
- Sahebi, S., & Formosa, P. (2025). The AI-mediated communication dilemma: epistemic trust, social media, and the challenge of generative artificial intelligence. Synthese, 205(3), 1-24. https://link.springer.com/article/10.1007/s11229-025-04963-2
- Singler, B. (2023). Will AI Create A Religion?: Views of the Algorithmic Forms of the Religious Life in Popular Discourse. American Religion, 5(1), 95-103. https://muse.jhu.edu/pub/3/article/916424/summary
- Vega, R., Dehghan, M., Nagdev, A., Buchanan, B., Kapur, J., Jaremko, J. L., & Zonoobi, D. (2025). Overcoming barriers in the use of artificial intelligence in point of care ultrasound. npj Digital Medicine, 8(1), 213. https://www.nature.com/articles/s41746-025-01633-y
- Weber, P., Carl, K.V. & Hinz, O. (2024). Applications of Explainable Artificial Intelligence in Finance—a systematic review of Finance, Information Systems, and Computer Science literature. Management Review Quarterly, 74, 867–907 (2024). https://doi.org/10.1007/s11301-023-00320-0
- Widder, D. G., & Hicks, M. (2024). Watching the generative AI hype bubble deflate. arXiv preprint arXiv:2408.08778. https://arxiv.org/abs/2408.08778
- Zhang, B., Zhu, J., & Su, H. (2023). Toward the third generation artificial intelligence. Science China Information Sciences, 66, 121101. https://doi.org/10.1007/s11432-021-3449-x
Cómo citar esta publicación: Manzano, F. A. (2025). ¿Burbuja o revolución? El dinero y la fe detrás del boom de la inteligencia artificial. Asociación Educar para el Desarrollo Humano. https://asociacioneducar.com/blog/burbuja-o-revolucion-el-dinero-y-la-fe-detras-del-boom-de-la-inteligencia-artificial/
Artículos relacionados

