La inteligencia artificial se ha vuelto una presencia constante en nuestras vidas. No la vemos, pero la sentimos:
- en las recomendaciones que siguen nuestros gustos,
- en los mapas que planifican nuestros recorridos,
- en los contenidos que aparecen antes de que sepamos que los queríamos ver.
Se presenta como una herramienta neutral, eficiente y objetiva. Sin embargo, detrás de esa apariencia accesible se despliega una trama de decisiones, infraestructuras e intereses que pocas veces se discuten en público. Este artículo propone detenernos un momento, mirar quién diseña estas tecnologías, quién las financia, quién las controla y, sobre todo, cómo influyen silenciosamente en la manera en que entendemos el mundo y nos relacionamos con él.
Los dueños del algoritmo
La inteligencia artificial suele imaginarse como algo etéreo, casi mágico: una nube que responde preguntas, traduce textos o reconoce rostros. Pero detrás de esa imagen liviana se esconde una maquinaria inmensa y profundamente material.
Para funcionar, la IA necesita:
- cantidades colosales de datos,
- centros de cómputo del tamaño de estadios,
- energía suficiente para alimentar pequeñas ciudades
- y equipos de ingenieros, lingüistas computacionales y científicos altamente especializados.
No se trata de un laboratorio improvisado, sino de infraestructura estratégica a escala planetaria.
Por eso, el núcleo de esta tecnología está concentrado en muy pocos actores. Un puñado de gigantes —Google, Microsoft, Meta, OpenAI, Amazon— controla los modelos más avanzados, define los estándares técnicos, dirige las inversiones globales y fija el ritmo de desarrollo. A ellos se suman laboratorios privados financiados por grandes capitales y estados con capacidad de sostener proyectos de miles de millones de dólares, especialmente Estados Unidos y China.
La IA no se distribuye como el aire: se concentra como el poder. Y es justamente el poder lo que está en juego.
Quien controla los algoritmos no solo innova; también decide:
- Qué información aparece primero en nuestras pantallas y cuál se diluye en el silencio.
- Qué comportamientos son considerados normales y cuáles quedan marcados como sospechosos.
- Qué trabajos son reemplazados y qué habilidades se vuelven obsoletas.
- Qué relatos sobre el mundo se vuelven visibles y cuáles quedan relegados a los márgenes.
Lo más inquietante es que este proceso no necesita imponerse de forma autoritaria. No hace falta censura explícita ni vigilancia total. La influencia se produce de manera más sutil: simplemente se organiza el flujo de lo que vemos. Como lo describe el psicólogo Russell Fulmer, los algoritmos pueden actuar como una “anaconda cognitiva”: no aprietan de golpe, sino que van estrechando, poco a poco, el campo de lo posible. Lo que no coincide con nuestras preferencias previas desaparece del horizonte, y sin darnos cuenta el mundo se achica. No deja de haber diversidad, pero ya no la encontramos. No desaparece la pluralidad, pero dejamos de verla.
Así, la IA no solo genera respuestas: modela las preguntas que creemos posibles. No solo interpreta nuestras elecciones: configura los escenarios entre los que podemos elegir. La verdadera disputa no es por la tecnología en sí, sino por la capacidad de influir en cómo pensamos, cómo sentimos y cómo imaginamos el futuro. Y en ese terreno, la concentración no es un problema técnico: es un problema democrático.
Quién escribe las reglas del futuro
Cuando aparece el tema de la regulación de la inteligencia artificial, suele surgir una reacción casi automática: si ponemos límites, vamos a frenar la innovación. La idea es seductora porque conecta con un mito muy instalado: el progreso tecnológico sería una fuerza natural, espontánea, que solo puede desarrollarse en libertad absoluta y que cualquier intervención humana –sea estatal, ética o social– constituye un obstáculo.
Sin embargo, la historia nos muestra algo muy distinto. Ninguna tecnología que transformó la vida humana avanzó sin reglas:
- Los medicamentos se someten a protocolos para asegurar que curen más de lo que dañan.
- La energía está regulada para evitar abusos y garantizar acceso.
- El tránsito tiene normas no para impedir la circulación, sino para que millones de personas puedan moverse sin que el caos sea permanente.
Regular no es detener: es hacer posible que algo funcione para la sociedad en su conjunto.
En el caso de la IA, el debate es especialmente complejo porque se trata de una tecnología transversal, capaz de intervenir en casi todos los ámbitos:
- la salud,
- la educación,
- las finanzas,
- la seguridad pública,
- las relaciones laborales
- y hasta la vida afectiva.
Algunos proponen regularla como un todo, estableciendo marcos globales; otros sostienen que es necesario intervenir “por sectores”, atendiendo a los riesgos específicos de cada uso; y otros recomiendan instrumentos complementarios como auditorías algorítmicas, certificaciones, evaluaciones de impacto o sistemas de responsabilidad civil para quienes desarrollan y despliegan modelos. También se multiplican los códigos de ética y declaraciones de principios que hablan de transparencia, justicia, equidad y protección de la dignidad humana. Pero los principios, cuando no están acompañados de mecanismos claros de cumplimiento, suelen quedarse en el terreno cómodo de la buena voluntad.
El problema central no es técnico, sino institucional:
- ¿Cómo construir formas de gobernanza democrática en un campo dominado por actores privados transnacionales que no responden necesariamente al interés público?
- ¿Cómo garantizar que una herramienta con capacidad de influir sobre lo que pensamos, deseamos o creemos se desarrolle bajo criterios que no estén determinados únicamente por la rentabilidad, la competencia económica o la geopolítica?
Regular la IA no es una disputa entre tecnología y política: es una disputa entre modelos de sociedad. Se trata de decidir si queremos un futuro donde las decisiones colectivas estén guiadas por algoritmos cuya lógica desconocemos, o uno en el que la tecnología sea orientada deliberadamente hacia el bienestar común.
La pregunta, entonces, no es si debemos regular, sino quién define las reglas y desde qué horizonte de valores.
La autonomía en juego
A primera vista, todo esto podría parecer un debate lejano, reservado a especialistas, organismos internacionales o directivos de empresas tecnológicas. Pero la transformación ocurre aquí, en lo más íntimo de nuestras rutinas:
- cuando desbloqueamos el teléfono por la mañana,
- cuando dejamos que una plataforma nos sugiera una película para la noche,
- cuando una aplicación calcula por nosotros el camino más rápido a casa,
- o cuando desplazamos el dedo sin pensar por el infinito de las redes sociales, una parte de nuestra atención, de nuestro tiempo e incluso de nuestra sensibilidad queda modelada por sistemas que no elegimos deliberadamente.
No se trata de manipulación explícita, sino de una forma de acompañamiento permanente que orienta sin obligar, que propone sin imponer, que instala hábitos sin que lo notemos.
La inteligencia artificial no solo organiza información, organiza el mundo que aparece frente a nosotros:
- si creemos que un tema es urgente porque lo vemos repetido,
- si pensamos que algo es popular porque aparece en todas partes,
- si sentimos que estamos eligiendo cuando, en realidad, estamos respondiendo a sugerencias cuidadosamente calibradas para mantenernos conectados.
Entonces es posible que la frontera entre decisión propia y sugerencia algorítmica se vuelva borrosa. La IA no solo responde a deseos ya formados; también participa de su construcción. Nos ayuda a pensar, sí, pero también puede ayudarnos a no pensar demasiado.
Esto no significa que debamos desconfiar de toda tecnología o romantizar un mundo sin algoritmos. La cuestión no es renunciar a lo que nos simplifica la vida, sino recuperar la capacidad de preguntarnos qué estamos delegando cuando entregamos nuestra atención. Defender la autonomía no tiene que ver con apagar el teléfono, sino con sostener el derecho a comprender cómo y por qué se ordena lo que vemos. Implica reclamar transparencia, demandar formas de rendición de cuentas y promover una alfabetización digital que no sea solo técnica, sino también emocional y política.
La autonomía, en el fondo, no es la ausencia de influencias, sino la posibilidad de reconocerlas y decidir qué hacer con ellas. La pregunta que queda abierta no es si la IA moldeará nuestras decisiones —eso ya está ocurriendo—, sino qué papel queremos jugar en esa relación. Podemos ser usuarios que consumen sin pensar, o ciudadanos que exigen participar en la definición de las reglas que orientan la tecnología que organiza nuestra vida. La diferencia no es menor: es, en buena medida, la diferencia entre vivir en un mundo que simplemente se nos presenta, o en uno que todavía podemos imaginar y elegir.
Conclusión
La inteligencia artificial no es solo una herramienta técnica; es un espacio donde se disputa qué valores organizan la vida social. Puede ampliar derechos y crear soluciones valiosas, pero también puede concentrar poder y reducir nuestra autonomía sin que lo notemos. Por eso, la cuestión central no es temerle ni celebrarla sin reservas, sino decidir colectivamente bajo qué criterios queremos que se desarrolle.
La tecnología no tiene un destino fijado por adelantado: se orienta, se negocia, se discute. La pregunta que permanece abierta es si aceptamos que esa decisión quede en manos de unos pocos, o si asumimos el desafío de participar en la construcción de un futuro donde la tecnología fortalezca, en lugar de disminuir, nuestra capacidad de elegir y de imaginar nuevos modos de vivir juntos.
Recomendación para profundizar: Cómo la Inteligencia Artificial Manipula lo que Creemos: Impacto de la IA en Emociones, Sociedad y Democracia
Para mantenerte al día con los últimos avances científicos
Sumate a la comunidad de WhatsApp de AE, donde vas a encontrar una fuente práctica y accesible de actualización académica en tu celular.
Bibliografía:
- Agha, A. (2025). The Existential Risks of Uncontrolled AI: Navigating the Perils of Advanced Artificial Intelligence. SSRN. https://dx.doi.org/10.2139/ssrn.5161527
- Baker-Brunnbauer, J. (2021). Management perspective of ethics in artificial intelligence. AI and Ethics, 1(2), 173-181. https://doi.org/10.1007/s43681-020-00022-3
- Chavali, D., Baburajan, B., Gurusamy, A., Dhiman, V. K., & Katari, S. C. (2024). Regulating artificial intelligence: Developments and challenges. International Journal of Pharmaceutical Sciences, 2(1), 1250-61. https://www.ijpsjournal.com/article/Regulating-Artificial-Intelligence-Developments-And-Challenges
- Covarrubias, L., Zadamig, J., Mendoza Enríquez, O. A., & Graff Guerrero, M. (2022). Enfoques regulatorios para la Inteligencia Artificial (IA). Revista Chilena de Derecho, 49(3), 31-62. https://dx.doi.org/10.7764/r.493.2
- Ijaiya, H., & Odumuwagun, O. O. (2024). Advancing Artificial Intelligence and Safeguarding Data Privacy: A Comparative Study of EU and US Regulatory Frameworks Amid Emerging Cyber Threats. International Journal of Research Publication and Reviews, 5, 3357-3375. https://doi.org/10.55248/gengpi.5.1224.250110
- Larrondo, M. E., & Grandi, N. M. (2021). Inteligencia Artificial, algoritmos y libertad de expresión. Universitas-XXI, Revista de Ciencias Sociales y Humanas, 34, 177-194. https://doi.org/10.17163/uni.n34.2021.08
- Morandín-Ahuerma, F. (2023). Principios normativos para una ética de la inteligencia artificial. Secretaría de Educación, CONCYTEP y BUAP Complejo Regional Nororiental. https://philarchive.org/archive/MORDDM-2v1
- Nosike, C. J., Ojobor, O. S. N., Nosike, U. C., & Nosike, R. D. C. J. (2024). Exploring the ethical and societal implications of artificial intelligence. Multidisciplinary Journal of Management and Social, 1, 1,. https://www.nigerianjournalsonline.com/index.php/MJMSS/article/view/4815/4679
- Taiwo, E., Akinsola, A., Tella, E., Makinde, K., & Akinwande, M. (2023). A Review of the Ethics of Artificial Intelligence and its Applications in the United States. arXiv, 2310.05751. https://doi.org/10.48550/arXiv.2310.05751
- Turk, Ž. (2024). Regulating artificial intelligence: A technology-independent approach. European View, 23(1), 87-93. https://doi.org/10.1177/17816858241242890
- Yanamala, A. K. Y., & Suryadevara, S. (2024). Navigating data protection challenges in the era of artificial intelligence: A comprehensive review. Revista de Inteligencia Artificial en Medicina, 15(1), 113-146. https://redcrevistas.com/index.php/Revista/article/view/17/15
Cómo citar esta publicación: Manzano, F. A. (2025). ¿Quién controla la inteligencia artificial? Una mirada crítica sobre la concentración de poder y el desafío de una regulación democrática. Asociación Educar para el Desarrollo Humano. https://asociacioneducar.com/blog/quien-controla-la-inteligencia-artificial-una-mirada-critica-sobre-la-concentracion-de-poder-y-el-desafio-de-una-regulacion-democratica/
Artículos relacionados

