Valoración de la Inteligencia Artificial desde la teoría de la racionalidad limitada de Herbert Simon
Palabras clave:
teoría de la racionalidad limitada, Herbert Simon, inteligencia artificial, toma de decisionesResumen
Se propone una valoración crítica de la inteligencia artificial (IA) desde la teoría de la racionalidad limitada de Herbert A. Simon, abordando la posibilidad de que los sistemas inteligentes superen las restricciones cognitivas, informacionales y temporales que caracterizan la toma de decisiones humanas. A través de un enfoque hermenéutico y teórico-analítico, se examinan las contribuciones originales de Simon, su vigencia en contextos contemporáneos y su relación con el desarrollo de tecnologías algorítmicas. La hipótesis central sostiene que, si bien la IA permite procesar grandes volúmenes de información y ofrecer soluciones eficientes en múltiples ámbitos, no elimina las limitaciones racionales, sino que las transforma y, en ciertos casos, las reproduce bajo nuevas lógicas.
Se exploran tanto las promesas tecnológicas como los mitos y desafíos que rodean su implementación, con énfasis en los sesgos algorítmicos, la opacidad de los sistemas y la necesidad de una gobernanza ética y contextualizada. El artículo concluye que la racionalidad limitada sigue siendo una herramienta conceptual vigente y necesaria para analizar los riesgos y oportunidades que plantea la IA. En lugar de asumir una superación de lo humano por lo artificial, se propone una racionalidad híbrida que articule la capacidad computacional de los sistemas con el juicio ético, crítico y situado del sujeto humano. Así, se aboga por un uso reflexivo de la IA, que contribuya a ampliar, y no a sustituir, la toma de decisiones por las personas en la sociedad contemporánea.
Referencias
Andino, T. (2020). Neuroeconomía, decisión de compra y el comportamiento económico en la cuidad de
Manta–Manabí. Journal Business Science, 1(2), 37–45. https://bit.ly/44KNf4q
Barredo, A., Díaz, N., Del Ser, J., Bennetot, A., Tabik, S., Barbado, A., García, S., Gil, S., Molina, D., Benja
mins, R., Chatila, R. & Herrera, F. (2020). Explainable Artificial Intelligence (XAI): Concepts, taxonomies,
opportunities and challenges toward responsible AI. Information Fusion, Vol. 58, 82-115, https://doi.
org/10.1016/j.inffus.2019.12.012.
Bayas, L. (2024). El impacto de la inteligencia artificial en la limitación del desarrollo del pensamiento lógico
y crítico en estudiantes universitarios. Suplemento CICA Multidisciplinario, 8(018), 6–39. https://doi.
org/10.56124/scicam.v8i018.001
Becker, G. S. (1976). The economic approach to human behavior. University of Chicago Press.
Binz, M., & Schulz, E. (2022). Using cognitive psychology to understand GPT-3. arXiv preprint arXiv:2206.14576.
https://arxiv.org/abs/2206.14576
Booch, G., Fabiano, F., Horesh, L., Kate, K., Lenchner, J., Linck, N., Loreggia, A., Murgesan, K., Mattei, N.,
Rossi, F., & Srivastava, B. (2021). Thinking Fast and Slow in AI. Proceedings of the AAAI Conference on
Artificial Intelligence, 35(17), 15042-15046. https://doi.org/10.1609/aaai.v35i17.17765
Burrell, J. (2016). How the machine ‘thinks’: Understanding opacity in machine learning algorithms. Big Data
& Society, 3(1). https://doi.org/10.1177/2053951715622512
Cantú, P. (2024). Inteligencia artificial y sus connotaciones éticas. Revista Iberoamericana de Bioética, (25),
01–11. https://doi.org/10.14422/rib.i25.y2024.008
Cordero, Y. y Jiménez, H. (2024). La inteligencia Artificial en la Educación: Desafíos, Oportunidades y
Amenazas. En Ediciones ULEAM Aprendizaje, formación y calidad educativa (pp. 6-30). https://bit.ly/
4jcDxex
Corvalán, J. (2018). Inteligencia artificial: retos, desafíos y oportunidades – Prometea: la primera inteligen
cia artificial de Latinoamérica al servicio de la Justicia. Revista de Investigações Constitucionais, 5(1),
295–316. https://doi.org/10.5380/rinc.v5i1.55334
Cravino, A. y Pokropek, J. (2018). Racionalidad limitada: las dificultades de la toma de decisiones en el
Diseño para la sustentabilidad. RChD: Creación y Pensamiento, 3(5). https://doi.org/10.5354/0719
837X.2018.49742
Estévez, E., Fillottrani, P., y Linares, S. (2020). PROMETEA: Transformando la administración de justicia con
herramientas de inteligencia artificial. https://doi.org/10.18235/0002378
Hernández, J. I. (2023). Hacia una racionalidad históricamente acotada: la crítica de Herbert A. Simon a la no
ción neoclásica de “agente racional”. Tópicos, Revista de Filosofía, 68, 35-68. https://doi.org/10.21555/
top.v680.2374
Hernández, R., Fernández, C. y Baptista, M. (2014). Metodología de la investigación. McGraw-Hill, Sexta
Edición, México. https://bit.ly/3ScI2Lo
Ibarra, E. (2010). Herbert A. Simon y su monomanía: El comportamiento humano como comportamiento arti
f
icial. Gestión y política pública, 19(1), 155-170. https://bit.ly/432fiLt
Ji, Z., Lee, N., Frieske, R., Yu, T., Xu, Ishii, E., Jin Bang, Y., Madotto, A. & Fung, P. (2023). Survey of Hallu
cination in Natural Language Generation. ACM Computing Surveys (CSUR). 55 (12), 1-38. https://doi.
org/10.1145/3571730
Mehrabi N., Morstatter, F., Saxena, N., Lerman, K. & Galstyan, A. (2021). A Survey on Bias and Fairness in Ma
chine Learning. ACM Computing Surveys (CSUR). 54(6), 1-35. https://doi.org/10.1145/3457607
Mittelstadt, B. (2019). Principles alone cannot guarantee ethical AI. Nature machine intelligence, 1(11), 501
507. https://doi.org/10.1038/s42256-019-0114-4
Morales Fredes, F. (2025, mayo 17). De algoritmo a apoyo emocional: Los 10 principales usos de la IA en 2025.
El Economista. https://bit.ly/43znEdA
Rastogi, C., Zhang, Y., Wei, D., Varshney, K. R., Dhurandhar, A., & Tomsett, R. (2020). Deciding Fast and Slow:
The Role of Cognitive Biases in AI-assisted Decision-making. arXiv preprint arXiv:2010.07938. https://
arxiv.org/abs/2010.07938
Rodríguez, Y. (2012). El impacto de la racionalidad limitada en el proceso informacional de toma de deci
siones organizacionales. Revista Cubana de Información en Ciencias de la Salud, 24(1). https://acimed.
sld.cu/index.php/acimed/article/view/401
Sánchez, M. (2022). La inteligencia artificial en el sector público y su límite respecto de los derechos fundamen
tales. Estudios constitucionales, 20(2), 257-284. https://dx.doi.org/10.4067/S0718-52002022000200257
Sánchez, M. (2024). La era de la inteligencia artificial generativa y la sombra de 1984: ¿puede la tecnología
más disruptiva del siglo XXI abrir paso a la concreción de la distopía orwelliana? El Derecho - Derecho,
Innovación & Desarrollo Sustentable - Número 17. https://www.elderecho.com.ar/index.php?option=
publicaciones
Santa Cruz, J. (2024). Racionalidad limitada y sesgos cognitivos judiciales. Sobre el deber de juzgar sin sesgos
cognitivos. Revista Oficial del Poder Judicial, 16(22), 225-261. https://doi.org/10.35292/ropj.v16i22.1052
Simon, H. (1982). Models of Bounded Rationality: Economic Analysis and Public Policy. MIT Press.
Simon, H. (1955). A Behavioral Model of Rational Choice, The Quarterly Journal of Economics, 69 (1), 99–118.
Pérez, Armenio y Aimara (2024). Contribuciones a la racionalidad del agente económico. Economía y Nego
cios, 15(2), 121-135. https://doi.org/https:/doi.org/10.29019/eyn.v15i2.1362
Velázquez, F. y Flores, J. (2024). Racionalidad artificial: Un modelo de análisis sobre el uso de la inteligencia
artificial generativa en las organizaciones. Academia.edu. https://bit.ly/4mm1UcJ
Zednik, C. (2021) Solving the Black Box Problem: A Normative Framework for Explainable Artificial Intelli
gence. Philos. Technol. 34, 265–288 (2021). https://doi.org/10.1007/s13347-019-00382-7