La inteligencia artificial promete decisiones más eficientes, pero sin datos de calidad ni estrategia puede automatizar errores y sesgos. Este artículo analiza por qué los datos sucios, la falta de criterio humano y la delegación acrítica de decisiones convierten a la IA en un factor de riesgo para instituciones, educación y sociedad.
Introducción
Durante la última década, la inteligencia artificial fue presentada como una suerte de respuesta técnica a problemas que parecían desbordar la capacidad humana. Frente a economías complejas, sociedades fragmentadas, flujos de información incontrolables y sistemas burocráticos lentos, los algoritmos aparecieron como una solución elegante y eficiente. Prometían detectar patrones invisibles, anticipar riesgos, reducir errores y, sobre todo, tomar decisiones más racionales que las personas. En ese relato, la inteligencia artificial no solo complementaba al ser humano, sino que venía a corregir sus limitaciones.
Este entusiasmo no fue ingenuo. En un mundo cansado de decisiones arbitrarias, corrupción, improvisación y desconfianza, delegar en máquinas parecía una salida razonable. Bancos, empresas, hospitales, escuelas, fuerzas de seguridad y gobiernos comenzaron a incorporar sistemas de inteligencia artificial en procesos cada vez más sensibles. La tecnología avanzó rápido, pero el debate sobre sus implicancias avanzó mucho más lento. Se asumió que, si el sistema funcionaba y producía resultados, entonces debía ser correcto.
Con el tiempo, sin embargo, empezaron a aparecer señales inquietantes:
- Decisiones automáticas imposibles de explicar,
- errores que se repetían de manera sistemática,
- personas perjudicadas por sistemas que “hacían bien su trabajo” según los indicadores técnicos, pero producían consecuencias injustas o absurdas en la vida real.
La sensación era paradójica: la inteligencia artificial parecía cada vez más poderosa, pero al mismo tiempo más torpe para comprender el contexto en el que operaba. En ese punto se volvió evidente algo que muchas veces se pasa por alto: la inteligencia artificial no trabaja con la realidad, sino con una representación parcial y deformada de ella. Y cuando esa representación está construida sobre datos sucios y sin una estrategia clara, el resultado no es inteligencia, sino automatización del error.
El mito del dato objetivo: cuando la realidad entra torcida
Una de las ideas más persistentes alrededor de la inteligencia artificial es que los datos son objetivos por naturaleza. Se los suele presentar como hechos puros, desprovistos de interpretación, capaces de describir el mundo tal como es. En el imaginario tecnológico, los datos aparecen como una materia prima neutra, casi científica, sobre la cual los algoritmos pueden operar sin interferencias humanas. Sin embargo, cualquier persona que haya trabajado con información real sabe que esta imagen es, como mínimo, ingenua.
Los datos no existen en el vacío. Son siempre el resultado de decisiones humanas previas, muchas veces invisibles o naturalizadas. Decisiones sobre qué medir y qué no, sobre cómo definir una categoría, sobre cuándo registrar un evento y cuándo ignorarlo. También decisiones tomadas por apuro, por limitaciones técnicas o por simples inercias institucionales. Cada base de datos es, en el fondo, una historia condensada de elecciones pasadas, de prioridades explícitas y de omisiones silenciosas.
En la práctica cotidiana, esta fragilidad es evidente. Los datos suelen estar incompletos, desactualizados, mal clasificados o directamente mal cargados. Formularios que se llenan de manera automática para “pasar de pantalla”, sistemas que no dialogan entre sí y generan inconsistencias, categorías ambiguas que nadie revisa, registros duplicados, errores que se arrastran durante años sin corrección. Todo ese desorden se acumula en bases de datos que luego se presentan como insumos confiables para entrenar modelos de inteligencia artificial.
El problema aparece cuando esos datos se convierten en criterio de decisión. La IA no distingue entre un error y un patrón real, entre una excepción y una regla, entre un vacío de información y una característica relevante. Todo lo que recibe es tratado como válido. Así, desigualdades históricas se transforman en regularidades estadísticas, omisiones sistemáticas se vuelven invisibles y malas mediciones pasan a ser reglas implícitas que nadie cuestiona porque “surgen de los datos”.
En lugar de descubrir la realidad, la inteligencia artificial la congela. Toma una versión parcial del mundo y la reproduce de manera consistente, lo que genera una fuerte ilusión de objetividad. La repetición refuerza la confianza: si el sistema siempre responde igual, parece confiable. Pero esa confianza es engañosa, porque está basada en una representación torcida desde el inicio. El problema, entonces, no es solo técnico, sino profundamente conceptual: se confunde información con conocimiento, volumen con calidad, cálculo con comprensión.
Automatizar sin entender: cuando el error se vuelve sistema
Uno de los grandes atractivos de la inteligencia artificial es su capacidad de escalar decisiones. Lo que antes requería tiempo, análisis y criterio humano, ahora puede resolverse en segundos y aplicarse de manera masiva. Esta promesa de eficiencia es seductora, especialmente en contextos donde los recursos son escasos y la presión por decidir rápido es constante. Sin embargo, esa escala tiene un costo que suele subestimarse.
Cuando el criterio de base está mal definido o los datos son deficientes, el error también se escala. Y lo hace de una forma particularmente peligrosa: de manera silenciosa, ordenada y difícil de detectar. Ya no se trata de una mala decisión aislada, sino de un sistema entero que reproduce el mismo error una y otra vez, con una coherencia que le da apariencia de racionalidad.
Esto se vuelve especialmente evidente en ámbitos como el fraude y las estafas. Los sistemas automáticos aprenden de patrones históricos para identificar comportamientos sospechosos, pero quienes buscan engañar también aprenden y se adaptan. Utilizan inteligencia artificial para crear identidades sintéticas, documentos falsos, voces clonadas y mensajes personalizados que imitan con precisión el lenguaje de bancos, empresas y organismos públicos. El engaño deja de ser artesanal y se vuelve industrial.
Mientras tanto, los sistemas de detección comienzan a fallar en ambos sentidos. Por un lado, dejan pasar fraudes cada vez más sofisticados que logran parecer “normales” según los patrones aprendidos. Por otro, bloquean usuarios legítimos que no encajan en el perfil esperado, personas reales que quedan atrapadas en filtros automáticos sin saber muy bien qué hicieron mal ni cómo salir de esa situación. La decisión ya no es discutible: es automática.
Algo similar ocurre con la desinformación y los deepfakes. Hoy no hace falta producir mentiras burdas para engañar. Basta con generar contenidos verosímiles que circulan más rápido que cualquier desmentida. Videos, audios y textos creados por inteligencia artificial se mezclan con información real y contaminan el ecosistema informativo. En este contexto, la IA no solo toma decisiones con datos sucios, sino que además contribuye activamente a ensuciar el entorno del que luego se alimenta.
La consecuencia es profunda y duradera: se erosiona la confianza. Cuando todo puede ser falso, incluso lo verdadero empieza a ponerse en duda. Y sin confianza, ningún sistema –por más sofisticado que sea– puede funcionar de manera legítima ni sostenible.
Instituciones deslumbradas, decisiones sin rostro
A medida que la inteligencia artificial se incorpora en instituciones públicas y privadas, aparece una brecha cada vez más evidente entre quienes diseñan los sistemas y quienes padecen sus efectos. Muchas organizaciones adoptan IA empujadas por la urgencia de modernizarse, reducir costos o mostrar innovación, sin detenerse demasiado en las consecuencias reales de esa automatización sobre las personas concretas.
En el sector público, esta dinámica resulta especialmente delicada. Sistemas que prometen optimizar recursos, prevenir delitos, asignar beneficios o evaluar riesgos comienzan a operar como verdaderas cajas negras. El ciudadano no sabe por qué fue rechazado, señalado o priorizado. El funcionario muchas veces tampoco. La explicación se pierde en una cadena técnica que nadie termina de entender del todo, pero que todos aceptan porque “lo dice el sistema”.
Paradójicamente, cuanto más sofisticada es la tecnología, menos preguntas se hacen. La decisión algorítmica se vuelve incuestionable no porque sea justa, sino porque es difícil de explicar. El lenguaje técnico, los indicadores, los puntajes y los modelos reemplazan la deliberación pública y el debate democrático. La inteligencia artificial deja de ser una herramienta al servicio de las personas y se transforma en una autoridad silenciosa, que decide sin dar la cara.
En este punto, la falta de estrategia ya no es solo un problema técnico. Es un problema político y ético. Sin reglas claras, sin supervisión humana efectiva y sin mecanismos de rendición de cuentas, la IA corre el riesgo de profundizar la distancia entre instituciones y ciudadanía, alimentando la desconfianza y la sensación de arbitrariedad.
El desplazamiento silencioso de la responsabilidad
Uno de los efectos más preocupantes de la inteligencia artificial no es la automatización en sí, sino el modo en que desplaza la responsabilidad. Cuando una persona toma una mala decisión, existe alguien a quien pedir explicaciones, alguien que puede revisar su razonamiento o asumir las consecuencias. Cuando la decisión la toma un sistema, la responsabilidad se diluye. Nadie decide del todo, pero alguien siempre sufre los efectos.
Este desplazamiento es especialmente peligroso cuando se combina con datos sucios y estrategias débiles. La decisión errónea deja de ser un error puntual y se convierte en una práctica sistemática. Se naturaliza. Se repite. Se legitima a fuerza de repetición y de lenguaje técnico. Lo que antes generaba incomodidad o debate, ahora se acepta como “resultado del sistema”.
En estos casos, la inteligencia artificial no reemplaza al juicio humano: lo anestesia. Reduce la incomodidad de decidir, de justificar, de hacerse cargo. Ofrece una coartada perfecta para no asumir responsabilidades. Y en ese proceso, transforma problemas sociales, políticos o éticos en supuestos “problemas técnicos”, mucho más fáciles de delegar que de resolver.
El riesgo final no es tecnológico, sino humano. No es que las máquinas decidan demasiado, sino que las personas decidan cada vez menos.
Conclusiones
A lo largo de este trabajo quedó claro que muchos de los problemas que hoy se atribuyen a la inteligencia artificial no nacen en los algoritmos ni en la potencia de cálculo, sino mucho antes, en la forma en que se construyen, se organizan y se utilizan los datos, y en la ausencia de una estrategia clara que guíe qué decisiones vale la pena automatizar y cuáles no. La IA no introduce errores de manera espontánea: amplifica, ordena y vuelve sistemáticos errores, sesgos y omisiones que ya estaban presentes en los sistemas humanos.
La idea de que los datos son objetivos y hablan por sí solos funciona como una coartada cómoda. Permite delegar decisiones difíciles en sistemas que parecen neutrales, pero que en realidad operan sobre representaciones parciales y deformadas de la realidad. Cuando esos datos están sucios, incompletos o sesgados, la inteligencia artificial no corrige el problema: lo cristaliza. La repetición constante de resultados similares genera una ilusión de objetividad que desalienta la pregunta crítica y refuerza la confianza en decisiones que, en el fondo, nunca fueron bien pensadas.
La automatización, presentada como sinónimo de eficiencia, se convierte así en un arma de doble filo. Escalar decisiones sin comprender el problema de base no solo multiplica los errores, sino que los vuelve invisibles. El sistema “funciona”, los indicadores se cumplen y la maquinaria sigue avanzando, mientras las consecuencias negativas se distribuyen de manera desigual y silenciosa. En ese contexto, el daño no siempre es inmediato ni evidente, pero sí persistente y acumulativo.
El impacto de esta lógica se vuelve especialmente preocupante cuando la inteligencia artificial se integra en instituciones públicas y privadas que toman decisiones sensibles. Allí, la fascinación tecnológica convive con una peligrosa pérdida de responsabilidad. Las decisiones algorítmicas adquieren un estatus casi incuestionable, no porque sean justas o correctas, sino porque resultan difíciles de explicar y aún más difíciles de discutir. El lenguaje técnico reemplaza al debate, y la opacidad se normaliza como si fuera una característica inevitable del progreso.
Quizás el efecto más profundo de este proceso sea el desplazamiento silencioso de la responsabilidad humana. Cuando una decisión es injusta o errónea, ya no está claro quién debe responder. El funcionario confía en el sistema, el sistema ejecuta lo programado y la persona afectada queda atrapada en una cadena sin rostro. La inteligencia artificial, lejos de liberar tiempo para pensar mejor, termina anestesiando el juicio crítico y reduciendo la incomodidad de decidir y hacerse cargo.
Por eso, el desafío central no es técnico, sino estratégico y cultural. No se trata de rechazar la inteligencia artificial ni de idealizar la toma de decisiones humana, que también es falible. Se trata de reconocer que ninguna tecnología puede reemplazar la necesidad de pensar qué se mide, para qué se mide y con qué consecuencias. Sin una estrategia de datos clara, sin supervisión humana efectiva y sin mecanismos de rendición de cuentas, la IA no mejora las decisiones: las vuelve más difíciles de cuestionar.
En última instancia, la pregunta que queda abierta no es si la inteligencia artificial es demasiado poderosa, sino si estamos siendo lo suficientemente responsables al usarla. Porque cuando las decisiones se vuelven ciegas, el problema no es la máquina, sino haber renunciado, casi sin darnos cuenta, a la tarea fundamental de decidir con criterio, con conciencia y con responsabilidad.
Recomendación para profundizar: ¿Quién controla la inteligencia artificial? Una mirada crítica sobre la concentración de poder y el desafío de una regulación democrática
Para mantenerte al día con los últimos avances científicos
Sumate al canal de WhatsApp de AE, cuyo objetivo es ayudarte a comprender mejor la ciencia y brindarte una fuente de actualización constante, simple y accesible desde tu celular.
Bibliografía:
-
Belzak, W., Niu, C., & Lee, A. O. (2025). When Machines Mislead: Human Review of Erroneous AI Cheating Signals. In Proceedings of the Artificial Intelligence in Measurement and Education Conference (AIME-Con): Works in Progress (pp. 90-97). https://aclanthology.org/2025.aimecon-wip.11/
-
Conitzer, V. (2024). Why should we ever automate moral decision making?. arXiv:2407.07671. https://doi.org/10.48550/arXiv.2407.07671
-
da Silva Oliveira, D. G. (2025). La verdadera tragedia de la inteligencia artificial: Sobre el trabajo humano y la economía, el medio ambiente y la salud. Astrolabio: Revista Internacional De Filosofía, 1(30), 1–20. https://doi.org/10.1344/astrolabio.v1i30.49350
-
Hua, A. (2025). Comparative Study on the Credibility of AI-Generated News Content and Traditional News Content. Sociology, Philosophy and Psychology, 2(1), 9-13. https://doi.org/10.70267/vs7xzc44
-
Hussain, F. G., Wasim, M., Hameed, S., Rehman, A., Asim, M. N., & Dengel, A. (2025). Fake News Detection Landscape: Datasets, Data Modalities, AI Approaches, their Challenges, and Future Perspectives. IEEE Access. https://doi.org/10.1109/ACCESS.2025.3553909
-
Li, Z., & Yin, M. (2024). Utilizing human behavior modeling to manipulate explanations in AI-assisted decision making: the good, the bad, and the scary. Advances in Neural Information Processing Systems, 37, 5025-5047. https://doi.org/10.52202/079017-0163
-
Shoaib, M. R., Wang, Z., Ahvanooey, M. T., & Zhao, J. (2023). Deepfakes, Misinformation, and Disinformation in the Era of Frontier AI, Generative AI, and Large AI Models. arXiv:2311.17394. https://doi.org/10.48550/arXiv.2311.17394
-
Whitney, C. D., & Norman, J. (2024, June). Real risks of fake data: Synthetic data, diversity-washing and consent circumvention. arXiv:2405.01820. https://doi.org/10.48550/arXiv.2405.01820
-
Zhu, J., Zhao, X., Sun, Y., Song, S., & Yuan, X. (2025). Relational data cleaning meets artificial intelligence: A survey. Data Science & Engineering, 10, 147–174. https://doi.org/10.1007/s41019-024-00266-7
Cómo citar esta publicación: Manzano, F. A. (2026). Cuando los datos fallan: por qué la inteligencia artificial toma malas decisiones. Asociación Educar para el Desarrollo Humano. https://asociacioneducar.com/blog/cuando-los-datos-fallan-por-que-la-inteligencia-artificial-toma-malas-decisiones/
Artículos relacionados

