El avance de la inteligencia artificial plantea un dilema central: no cuán inteligente será la tecnología, sino cuán humanos seremos al utilizarla. Este artículo analiza el impacto de los algoritmos en la educación, la autonomía y la vida social, y propone una mirada crítica para gobernar la IA con criterio humano.
Introducción
Cada cierto tiempo, la humanidad se convence de que encontró por fin la herramienta que lo va a resolver todo. En el siglo XIX fue la máquina de vapor, en el XX la electricidad, y en el XXI la inteligencia artificial. La promesa se repite: la tecnología avanza, la vida mejora, los problemas se ordenan solos. Pero la historia siempre nos devuelve al mismo punto: las herramientas cambian rápido, las personas no tanto. Y cuando la velocidad entre una y otra se desacomoda, surgen tensiones. No porque la tecnología sea mala, sino porque olvidamos algo elemental: las herramientas son inteligentes solo en la medida en que ayudan a ampliar, y no a achicar, nuestras capacidades humanas.
Hoy nos encontramos exactamente en ese punto. Un mundo impulsado por algoritmos que nos recomiendan qué mirar, qué leer, qué comprar y hasta qué pensar, convive con personas que apenas comprenden —si acaso lo sospechan— cómo esas decisiones se toman. Lo muestran estudios recientes: los jóvenes creen dominar la tecnología porque la usan todo el día, pero eso no significa que entiendan realmente la lógica que organiza sus pantallas, ni el poder que concentra quien las diseña. Y también lo muestran otras investigaciones: los sistemas de IA que se expanden en educación, salud, trabajo y seguridad despliegan al mismo tiempo beneficios y dilemas éticos profundos —sesgos, opacidad, pérdida de autonomía, impactos ambientales, desigualdades reforzadas— que reclaman una gestión humana más cuidadosa y participativa.
La discusión pública parece girar en torno a una pregunta equivocada: “¿Cuán inteligente puede volverse la tecnología?” Cuando la pregunta correcta tal vez sea otra: “¿Qué tan humanos queremos seguir siendo mientras la tecnología avanza?” Este artículo parte de esa intuición y explora una idea sencilla pero urgente: el futuro no se jugará entre máquinas inteligentes, sino entre sociedades que sepan o no gobernarlas humanamente.
Algoritmos que aceleran el mundo, personas que siguen aprendiendo lento
En la vida cotidiana, los algoritmos se volvieron invisibles porque funcionan demasiado bien. Una playlist adivina nuestro estado de ánimo, una app decide qué noticias vemos, un sistema de recomendación detecta que pensamos comprar algo incluso antes de considerarlo conscientemente.
Nada parece demasiado grave… hasta que nos preguntamos cómo aprendemos a vivir en un entorno donde casi todo está mediado por decisiones automatizadas que no controlamos.
La investigación reciente muestra algo inquietante: incluso los jóvenes —supuestos “nativos digitales”— construyen su comprensión de los algoritmos a partir de intuiciones parciales, trucos aprendidos a los golpes y una mezcla de fascinación y desconcierto. Algunos creen que las plataformas “los espían”, otros que “adivinan” preferencias, y otros aceptan resignados que “funciona así y ya está”. Pero casi ninguno comprende del todo los mecanismos que ordenan su entorno digital. Si esto ocurre en las generaciones hiperconectadas, ¿qué queda para el resto de la sociedad?
Al mismo tiempo, del lado de las máquinas, la situación es muy distinta. Los modelos de IA procesan datos a una escala que ningún cerebro humano podría manejar. Clasifican, predicen, correlacionan, recomiendan. No “piensan”, pero influyen cada vez más en cómo pensamos nosotros. La sociología lo explica con claridad: las tecnologías no operan en el vacío, sino que reorganizan comportamientos, expectativas, relaciones sociales y dinámicas de poder. Y lo hacen a una velocidad que supera la capacidad de adaptación institucional, emocional y cultural del mundo humano.
Lo paradójico es que quienes diseñan estas tecnologías suelen imaginar que producen herramientas “neutras”, pero lo que realmente producen son ecosistemas socio-técnicos que reconfiguran vidas completas. No es casual que las grandes discusiones actuales giren en torno a la transparencia, la equidad, la explicabilidad o la posibilidad de intervenir colectivamente en sistemas que afectan a miles de millones de personas. Porque la tecnología puede ser rápida, pero la comprensión social sigue siendo artesanal. Y esa brecha no deja de crecer.
La ilusión de lo automático: cuando delegar decisiones empieza a costarnos humanidad
Uno de los riesgos más profundos de esta época es la pérdida silenciosa de autonomía. No porque las máquinas nos impongan algo, sino porque empezamos a ceder decisiones sin darnos cuenta. La comodidad tiene efectos colaterales. Cuando dejamos de elegir música, rutas, noticias o productos porque un sistema “lo hace mejor”, también perdemos práctica en la capacidad más humana que existe: decidir.
Estudios recientes en educación muestran cómo los algoritmos que prometen personalizar el aprendizaje generan beneficios, pero también riesgos:
- sesgos reforzados,
- falta de transparencia,
- vigilancia excesiva,
- dependencia de sistemas opacos
- y, sobre todo, una reducción de la autonomía de alumnos y docentes que puede convertirse en hábito si no se gestiona críticamente.
Y en el mundo del marketing digital ocurre algo similar. Las técnicas de personalización que usan IA no solo buscan eficiencia comercial: crean ecosistemas hipersegmentados donde cada usuario recibe un contenido distinto, donde la atención se convierte en recurso económico y donde la manipulación emocional se afina con datos cada vez más detallados. Investigaciones recientes revelan que esto tiene impactos ambientales, psicológicos y democráticos que rara vez se discuten públicamente.
La ilusión de que estos sistemas “solo muestran lo que nos gusta” se derrumba cuando vemos que también moldean lo que pensamos, lo que tememos y lo que creemos sobre el mundo.
El problema no es que los algoritmos decidan cosas por nosotros. El problema aparece cuando dejamos de preguntarnos por qué deciden así, quién se beneficia y qué perdemos a cambio. Porque una inteligencia artificial que automatiza funciones puede ser útil. Pero una que automatiza criterios —que define qué es relevante, deseable o verdadero— puede volverse peligrosa si no existe una supervisión humana real.
Gobernar la tecnología sin perder la brújula: un desafío político, educativo y cultural
Si el futuro no es inteligente sino humano, entonces el desafío no consiste en crear máquinas más potentes, sino en construir sociedades capaces de gobernarlas. Y ese desafío tiene tres dimensiones: política, educativa y cultural.
En el plano político, ya existe evidencia clara de que el diseño algorítmico no puede quedar en manos exclusivas de empresas que priorizan maximizar clics, atención o ganancias. Varios trabajos insisten en la necesidad de introducir valores sociales explícitos en los sistemas de recomendación y moderación, para evitar que el interés de la plataforma prime sobre el bienestar colectivo. Otros argumentan que solo procesos participativos amplios —con ciudadanía, expertos, instituciones y comunidades— pueden guiar sistemas de IA hacia consensos democráticos sostenibles, evitando que la lógica técnica se imponga sobre la lógica social.
En el plano educativo, el problema es todavía más profundo: estamos formando generaciones que viven inmersas en sistemas algorítmicos sin comprenderlos. Jóvenes que saben usarlo todo, pero no saben leer nada de lo que hay detrás. La alfabetización del siglo XXI no se limita a escribir, buscar información o programar: exige entender cómo operan los sistemas que ordenan la vida cotidiana. Y exige, sobre todo, que la escuela recupere un rol que hoy parece haber cedido: enseñar a pensar críticamente frente a tecnologías que se presentan como inevitables.
Por último, la dimensión cultural es tal vez la más difícil. Durante décadas se instaló la idea de que la tecnología era sinónimo de progreso automático. Pero hoy necesitamos otra narrativa: la tecnología es una herramienta poderosa, sí, pero el progreso depende del criterio humano que la oriente. Una sociedad que delega todo en sistemas automáticos no se vuelve más moderna: se vuelve más frágil.
Conclusiones
Volver a lo humano no implica rechazar la tecnología. Tampoco romantizar un pasado que ya no existe. Significa, más bien, recuperar una intuición sencilla: la inteligencia que importa no es la que ejecuta cálculos imposibles, sino la que permite imaginar futuros compartidos.
La pregunta decisiva no es si la IA será cada vez más poderosa. Lo será. La verdadera pregunta es si nosotros seguiremos siendo capaces de ponerle límites, de decidir cuándo usarla, de educar a quienes convivirán con ella y de construir instituciones que protejan a las personas por encima de los intereses que organizan las plataformas.
Puede parecer una paradoja, pero es exactamente lo contrario: cuanto más inteligente se vuelve la tecnología, más humanos debemos volvernos nosotros. Más sensibles, más críticos, más conscientes, más capaces de frenar, preguntar, interpretar y negociar. En definitiva, más responsables.
Porque el futuro no será “inteligente” si dejamos que lo diseñen algoritmos que solo optimizan datos. El futuro será humano si recordamos que ninguna máquina, por sofisticada que sea, puede reemplazar aquello que siempre nos sostuvo como especie: la capacidad de decidir juntos qué mundo queremos habitar.
Recomendación para profundizar: ¿Quién controla la inteligencia artificial? Una mirada crítica sobre la concentración de poder y el desafío de una regulación democrática
Para mantenerte al día con los últimos avances científicos
Sumate al canal de WhatsApp de AE, cuyo objetivo es ayudarte a comprender mejor la ciencia y brindarte una fuente de actualización constante, simple y accesible desde tu celular.
Bibliografía:
- Celiktutan, B., Cadario, R., & Morewedge, C. K. (2024). People see more of their biases in algorithms. Proceedings of the National Academy of Sciences of the United States of America, 121(16), e2317602121. https://doi.org/10.1073/pnas.2317602121
- Dahlin E. (2024). And say the AI responded? Dancing around ‘autonomy’ in AI/human encounters. Social studies of science, 54(1), 59–77. https://doi.org/10.1177/03063127231193947
- Dwivedi, Y. K., Sharma, A., Rana, N. P., Giannakis, M., Goel, P., & Dutot, V. (2023). Evolution of artificial intelligence research in Technological Forecasting and Social Change: Research topics, trends, and future directions. Technological Forecasting and Social Change, 192, 122579. https://doi.org/10.1016/j.techfore.2023.122579
- Ebrahimyan, A., Mansourian, M., Darvishigilan, H., & Alavi, F. (2025). Exploring the Role of Artificial Intelligence in Enhancing Social Participation for Community-Based Health Promotion: A Qualitative Study. Mass Gathering Medical Journal, 2(2), e166438. https://doi.org/10.69107/mgmj-166438
- Iazzolino, G., & Stremlau, N. (2024). AI for social good and the corporate capture of global development. Information technology for development, 30(4), 626–643. https://doi.org/10.1080/02681102.2023.2299351
- Joseph J. (2025). The algorithmic self: how AI is reshaping human identity, introspection, and agency. Frontiers in psychology, 16, 1645795. https://doi.org/10.3389/fpsyg.2025.1645795
- Kashyap, R., Samuel, Y., Friedman, L. W., & Samuel, J. (2024). Editorial: Artificial intelligence education & governance -human enhancive, culturally sensitive and personally adaptive HAI. Frontiers in artificial intelligence, 7, 1443386. https://doi.org/10.3389/frai.2024.1443386
- Leib, M., Köbis, N., Rilke, R. M., Hagens, M., & Irlenbusch, B. (2023). Corrupted by Algorithms? How AI-generated and Human-written Advice Shape (Dis)honesty. arXiv, 2301.01954. https://doi.org/10.48550/arXiv.2301.01954
- Nikolenko, K. (2022). Artificial Intelligence and Society: Pros and Cons of the Present, Future Prospects. Futurity Philosophy, 1(2), 54-67. https://doi.org/10.57125/FP.2022.06.30.05
- Peng, K., Garg, N., & Kleinberg, J. (2025). A No Free Lunch Theorem for Human-AI Collaboration. arXiv, 2411.15230. https://doi.org/10.48550/arXiv.2411.15230
- Senowarsito, S. & Ardini, S.N. (2023). The Use of Artificial Intelligence to Promote Autonomous Pronunciation Learning: Segmental and Suprasegmental Features Perspective. Indonesian Journal of English Language Teaching and Applied Linguistics, 8(2), 133-147. https://ijeltal.org/index.php/ijeltal/article/view/1452
- Snijders, C., Conijn, R., de Fouw, E., & van Berlo, K. (2023). Humans and Algorithms Detecting Fake News: Effects of Individual and Contextual Confidence on Trust in Algorithmic Advice. International Journal of HumanComputer Interaction, 39(7), 1483-1494. https://doi.org/10.1080/10447318.2022.2097601
- Stangl, A., Sadjo, E., Emami-Naeini, P., Wang, Y., Gurari, D., & Findlater, L. (2023). “Dump it, Destroy it, Send it to Data Heaven”: Blind People’s Expectations for Visual Privacy in Visual Assistance Technologies. In Proceedings of the 20th International Web for All Conference (pp. 134-147). https://doi.org/10.1145/3587281.3587296
- Stelmaszak, M., Möhlmann, M., & Sørensen, C. (2025). When Algorithms Delegate to Humans: Exploring Human-Algorithm Interaction at Uber. MIS Quarterly, 49(1), 305-330. https://doi.org/10.25300/MISQ/2024/17911
- Suarez, F. (2023). Artificial intelligence and its impact on social behavior: a scoping review. Praxis Pedagógica, 23(35), 5-23. https://doi.org/10.26620/uniminuto.praxis.23.35.2023.5-23
- Sultana, O. (2025). Smart Bangladesh: Bridging Technology and Economy for a Bright Future. Indiana Journal of Economics and Business Management, 5(2), 12-25. https://doi.org/10.5281/zenodo.14999158
Cómo citar esta publicación: Manzano, F. A. (2025). Inteligencia artificial y humanidad: el futuro no es inteligente, es humano. Asociación Educar para el Desarrollo Humano. https://asociacioneducar.com/blog/inteligencia-artificial-y-humanidad-el-futuro-no-es-inteligente-es-humano/
Artículos relacionados

