La fe en el algoritmo: límites de la inteligencia artificial hoy

En un contexto de incertidumbre social y económica, la inteligencia artificial dejó de ser solo una herramienta para convertirse en una promesa casi incuestionable. Este análisis invita a reflexionar, desde la educación y el pensamiento crítico, sobre los riesgos de delegar decisiones humanas en algoritmos sin comprender sus límites.

Introducción

En algún punto de los últimos años, la inteligencia artificial dejó de ser una tecnología para convertirse en una promesa. Ya no se la presenta solo como una herramienta útil, sino como una respuesta general a problemas específicos, complejos y, muchas veces, profundamente humanos. La IA aparece en discursos empresariales, planes de gobierno, informes financieros y conversaciones cotidianas como si tuviera una capacidad casi mágica: ordenar el caos, reducir errores y decidir mejor que nosotros.

Ese entusiasmo no surge en el vacío. Llega en un momento marcado por la incertidumbre. Economías que no crecen, instituciones que pierden legitimidad, Estados desbordados, mercados nerviosos y personas cansadas de tomar decisiones en contextos cada vez más imprevisibles. En ese escenario, delegar en algoritmos parece una solución razonable. Si la máquina calcula, el error ya no es nuestro.

Pero entre la herramienta y la creencia hay una diferencia sutil y decisiva. Cuando la confianza en la inteligencia artificial se apoya más en la necesidad de creer que en la comprensión de cómo funciona, el algoritmo empieza a ocupar un lugar simbólico distinto. Deja de ser un medio y se transforma en una especie de oráculo moderno: silencioso, rápido, aparentemente neutral.

Este artículo propone detenerse en ese desplazamiento. No para negar el valor de la inteligencia artificial ni para caer en alarmismos, sino para mirar con más atención qué esperamos de ella y por qué. ¿Cuándo la confianza se convierte en fe? ¿Qué dejamos de preguntar cuando aceptamos una recomendación sin entenderla? ¿Qué decisiones estamos dispuestos a entregar a cambio de sentir que alguien —o algo— tiene el control?

Más que ofrecer respuestas cerradas, este texto busca incomodar un poco. Porque tal vez el mayor riesgo de esta etapa no sea que las máquinas piensen demasiado, sino que nosotros dejemos de pensar convencidos de que el algoritmo ya lo hizo por nosotros.

 

El mercado necesita creer: promesas en tiempos de ansiedad

Los mercados financieros suelen describirse como espacios racionales, gobernados por cálculos, modelos y proyecciones. Sin embargo, en los momentos de mayor incertidumbre, funcionan más como termómetros emocionales colectivos. Se mueven por expectativas, miedos compartidos y relatos que prometen orden cuando todo parece desordenado.

La inteligencia artificial llegó en ese contexto preciso. Economías que no terminan de despegar, productividad estancada, inflación persistente, conflictos geopolíticos sin resolución clara, crisis climáticas cada vez más visibles y Estados sobrecargados. Frente a ese escenario, la IA no aparece solo como una innovación tecnológica, sino como una promesa transversal: hacer más con menos, decidir mejor, reducir errores, optimizar procesos.

El problema no es la promesa en sí, sino la forma en que se la adopta. Muchas empresas anuncian que “incorporan inteligencia artificial” sin poder explicar con claridad para qué, con qué datos o con qué impacto real en sus decisiones. Fondos de inversión apuestan a proyectos donde el principal activo es la etiqueta AI. Gobiernos diseñan estrategias más orientadas a mostrar modernidad que a resolver problemas concretos.

En ese clima, el mercado no evalúa solo resultados presentes: compra futuro. Y cuando el futuro se convierte en mercancía, la frontera entre análisis y fe empieza a desdibujarse.

La confianza en el algoritmo muchas veces no nace del entendimiento, sino de la distancia. Cuanto menos se comprende cómo funciona un sistema, más fácil resulta atribuirle una racionalidad superior. El algoritmo no duda, no se contradice, no muestra cansancio. Y eso, en tiempos de ansiedad, tranquiliza.
Así, la fe en la inteligencia artificial cumple una función silenciosa pero poderosa: permite delegar decisiones incómodas en sistemas que prometen objetividad. No reemplaza el criterio humano, pero lo posterga. Y cuando el mercado confunde promesa con milagro, el costo de esa fe suele aparecer más adelante.

 

El algoritmo como oráculo: cuando dejamos de preguntar cómo decide

En la vida cotidiana, la inteligencia artificial no se impone a la fuerza. No ordena ni grita. Sugiere. Recomienda. Prioriza. Y en esa suavidad construye poder.

Elegimos qué mirar, qué leer, qué comprar, qué ruta tomar, qué contenido evitar o qué decisión parece más razonable siguiendo indicaciones algorítmicas. Al principio, lo hacemos como quien acepta una ayuda. Con el tiempo, como quien sigue una referencia confiable. Sin darnos cuenta, dejamos de preguntar cómo decide el sistema y empezamos a preguntarnos por qué no seguirlo.
Ahí ocurre el desplazamiento clave.

El algoritmo deja de ser una herramienta y pasa a ocupar el lugar del oráculo. No porque sea infalible, sino porque responde rápido, con seguridad y sin dudar. En un mundo lleno de ambigüedades, esa certeza resulta tranquilizadora. La máquina no se contradice, no se arrepiente, no titubea. Y eso, para muchas personas y organizaciones, vale más que entender el razonamiento detrás de la decisión.

La opacidad juega a favor de esa autoridad. La mayoría de los sistemas de inteligencia artificial no explican cómo llegan a sus conclusiones, o lo hacen de manera técnica, inaccesible para el usuario común. Pero lejos de generar rechazo, esa falta de transparencia muchas veces refuerza la confianza. Si el sistema es complejo, se asume que “sabe más”. Cuanto menos se entiende, más fácil es atribuirle inteligencia.

Así se instala una forma particular de confianza: no basada en la comprensión, sino en la delegación. El algoritmo no tiene rostro, no tiene intereses visibles, no parece tener ideología. Decide “según los datos”. Y esa idea de neutralidad resulta especialmente atractiva en contextos donde las decisiones humanas están asociadas a error, sesgo o arbitrariedad.

El problema aparece cuando dejamos de revisar esas decisiones. Cuando el sistema recomienda y nosotros acatamos. Cuando el resultado parece razonable y damos por cerrado el proceso. En ese punto, el algoritmo no solo orienta acciones: define qué preguntas vale la pena hacerse y cuáles no.

La autoridad algorítmica se vuelve entonces silenciosa pero profunda. No elimina la capacidad humana de decidir, pero la va erosionando de a poco. Pensar críticamente exige tiempo, esfuerzo y asumir responsabilidad. Seguir una recomendación es más rápido y menos costoso. Y en contextos de presión, urgencia o sobrecarga, esa diferencia pesa.

El riesgo no está en usar inteligencia artificial, sino en naturalizarla como árbitro incuestionable. Cuando dejamos de preguntar cómo decide un sistema, también dejamos de preguntarnos por sus límites, sus supuestos y sus errores. Y cuando el oráculo falla —porque siempre falla—, el problema ya no es técnico, sino humano: ¿quién decidió confiar sin preguntar?

Tal vez la pregunta central de esta etapa no sea si los algoritmos pueden decidir mejor que nosotros, sino algo más incómodo: ¿cuántas decisiones estamos dispuestos a entregar a cambio de no tener que hacernos cargo de ellas?

 

Milagros que no existen: lo que la IA no puede hacer (aunque lo prometa)

La inteligencia artificial puede hacer muchas cosas. Puede procesar millones de datos en segundos, detectar patrones invisibles al ojo humano, automatizar tareas repetitivas y asistir decisiones complejas. Pero hay algo que no puede hacer, por más que a veces se lo sugiera: producir milagros.

Ningún algoritmo crea valor por sí solo. No entiende contextos sociales complejos, no define objetivos colectivos, no resuelve conflictos de intereses ni corrige desigualdades estructurales. La IA trabaja con datos del pasado para predecir escenarios futuros, pero no decide qué futuro vale la pena construir. Eso sigue siendo una tarea humana.

Sin embargo, en el clima de expectativas que rodea a la inteligencia artificial, muchas veces se le asignan capacidades que no tiene. Se espera que ordene sistemas desordenados por malas decisiones previas, que mejore políticas sin revisar sus supuestos o que haga “más eficiente” aquello que nunca fue justo. Cuando eso no ocurre, la decepción no se dirige a la promesa exagerada, sino a la tecnología misma.

Otro límite frecuente es la idea de neutralidad. La IA no es imparcial por naturaleza. Aprende de datos producidos por sociedades desiguales, instituciones imperfectas y decisiones humanas sesgadas. Automatizar una decisión no la vuelve más justa; solo la vuelve más rápida. Y cuando el error se escala, también lo hace el daño.

Tampoco reemplaza la estrategia. La inteligencia artificial puede optimizar procesos, pero no define prioridades. Puede recomendar, pero no asume consecuencias. Puede calcular riesgos, pero no decide qué riesgos son aceptables. Cuando se la usa para suplir la falta de planificación, lo que falla no es el algoritmo, sino la expectativa puesta sobre él.

El problema aparece cuando la promesa tecnológica se utiliza para evitar discusiones incómodas. Hablar de modelos es más sencillo que hablar de poder. Ajustar un sistema parece más manejable que revisar una política. En ese deslizamiento, la IA se convierte en una coartada elegante para no decidir.

Las burbujas tecnológicas no estallan porque la tecnología sea inútil, sino porque se la cargó de expectativas imposibles. La inteligencia artificial no es la excepción. No porque no funcione, sino porque se le pide que haga lo que ningún sistema puede hacer: reemplazar la responsabilidad humana.

Tal vez el verdadero límite de la inteligencia artificial no sea técnico, sino simbólico. Cuando se la presenta como milagro, inevitablemente termina decepcionando. Cuando se la entiende como herramienta, en cambio, puede aportar valor real.

Y ahí aparece una pregunta inevitable: ¿queremos usar la IA para pensar mejor o para pensar menos?

 

Conclusiones

La inteligencia artificial no llegó solo como una tecnología nueva, sino como una promesa cargada de expectativas. En un contexto atravesado por la incertidumbre, la ansiedad y la fatiga decisional, el algoritmo apareció como una figura tranquilizadora: rápido, eficiente, aparentemente neutral. Una respuesta técnica a problemas que, en realidad, son sociales, políticos y humanos.

A lo largo de este artículo vimos cómo esa promesa se transforma, casi sin notarlo, en una forma de fe. El mercado compra futuro antes de evaluar resultados. Las organizaciones delegan decisiones sin comprender del todo cómo se toman. Las personas aceptan recomendaciones sin preguntar demasiado. El algoritmo no se impone: se vuelve incuestionable.

El problema no es usar inteligencia artificial, sino dejar de mirarla críticamente. Ningún sistema puede definir prioridades colectivas, asumir responsabilidades morales o decidir qué riesgos vale la pena correr. Cuando se le atribuyen esas funciones, la IA deja de ser herramienta y pasa a funcionar como coartada: una manera elegante de no hacerse cargo.

Tal vez el desafío de esta etapa no sea técnico, sino cultural. Aprender a convivir con sistemas cada vez más potentes sin convertirlos en oráculos. Recuperar la pregunta por el “cómo” y el “para qué” antes de aceptar el resultado. Entender que automatizar una decisión no la vuelve necesariamente mejor, más justa ni más inteligente.

La inteligencia artificial puede ayudarnos a pensar mejor, pero no puede pensar por nosotros. Y en un mundo que busca certezas rápidas, sostener esa diferencia puede ser incómodo. Pero también es la única forma de que la promesa tecnológica no termine convirtiéndose, otra vez, en una decepción anunciada.

Recomendación para profundizar: ¿Quién controla la inteligencia artificial? Una mirada crítica sobre la concentración de poder y el desafío de una regulación democrática

 

Para mantenerte al día con los últimos avances científicos

Sumate al canal de WhatsApp de AE, cuyo objetivo es ayudarte a comprender mejor la ciencia y brindarte una fuente de actualización constante, simple y accesible desde tu celular.





 

Bibliografía:

  • Bylieva, D. (2024). Artificial Intelligence as an Old Technology. Technology and Language, 5(3), 68-84. https://doi.org/10.48417/technolang.2024.03.06
  • Durán, J. M., & Pozzi, G. (2025). Trust and Trustworthiness in AI. Philosophy and Technology, 38(1), Article 16. https://doi.org/10.1007/s13347-025-00843-2
  • Henrique, B. M., & Santos Jr, E. (2024). Trust in artificial intelligence: Literature review and main path analysis. Computers in Human Behavior: Artificial Humans2(1), 100043. https://www.sciencedirect.com/science/article/pii/S2949882124000033
  • Kreps S, George J, Lushenko P, Rao A (2023) Exploring the artificial intelligence “Trust paradox”: Evidence from a survey experiment in the United States. PLoS ONE 18(7): e0288109. https://doi.org/10.1371/journal.pone.0288109
  • McGrath, M. J., Lack, O., Tisch, J., & Duenser, A. (2025). Measuring trust in artificial intelligence: validation of an established scale and its short form. Frontiers in Artificial Intelligence, 8, 1582880. https://doi.org/10.3389/frai.2025.1582880
  • Montag, C., Klugah-Brown, B., Zhou, X., Wernicke, J., Liu, C., Kou, J., Chen, Y., Haas, B. W., & Becker, B. (2023). Trust toward humans and trust toward artificial intelligence are not associated: Initial insights from self-report and neurostructural brain imaging. Personality Neuroscience, 6, Article e3. https://doi.org/10.1017/pen.2022.5
  • Simbolon, L., Manugeren, M., & Barus, E. (2025). Does AI Know Things? An Epistemological Perspective on Artificial Intelligence. Journal of English Language and Education10(5), 1022-1028.
  • Sparrow, R., & Hatherley, J. (2025). The promise and perils of AI in medicine. arXiv:2505.06971. https://arxiv.org/abs/2505.06971
  • Srikanth, K. (2022). Artificial intelligence and human consciousness. Social Science Research Network10. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4070609

 

Cómo citar esta publicación: Manzano, F. A. (2026). La fe en el algoritmo: límites de la inteligencia artificial hoy. Asociación Educar para el Desarrollo Humano. https://asociacioneducar.com/blog/la-fe-en-el-algoritmo-limites-de-la-inteligencia-artificial-hoy/
https://orcid.org/0000-0002-1513-4891
Investigador del CONICET | Doctor en Demografía, Universidad Nacional de Córdoba | Licenciado en Economía, Universidad de Buenos Aires | Licenciado en Sociología, Universidad de Buenos Aires | Ha sido autor y coautor de más de 60 artículos científicos en revistas indexadas, 4 libros y más de 15 capítulos en libros | Realiza divulgación en el canal de YouTube: “Datos y Ciencias Sociales”.