Valoración de la Inteligencia Artificial desde la teoría de la racionalidad limitada de Herbert Simon

Autores/as

Palabras clave:

teoría de la racionalidad limitada, Herbert Simon, inteligencia artificial, toma de decisiones

Resumen

Se propone una valoración crítica de la inteligencia artificial (IA) desde la teoría de la racionalidad limitada de Herbert A. Simon, abordando la posibilidad de que los sistemas inteligentes superen las restricciones cognitivas, informacionales y temporales que caracterizan la toma de decisiones humanas. A través de un enfoque hermenéutico y teórico-analítico, se examinan las contribuciones originales de Simon, su vigencia en contextos contemporáneos y su relación con el desarrollo de tecnologías algorítmicas. La hipótesis central sostiene que, si bien la IA permite procesar grandes volúmenes de información y ofrecer soluciones eficientes en múltiples ámbitos, no elimina las limitaciones racionales, sino que las transforma y, en ciertos casos, las reproduce bajo nuevas lógicas.

Se exploran tanto las promesas tecnológicas como los mitos y desafíos que rodean su implementación, con énfasis en los sesgos algorítmicos, la opacidad de los sistemas y la necesidad de una gobernanza ética y contextualizada. El artículo concluye que la racionalidad limitada sigue siendo una herramienta conceptual vigente y necesaria para analizar los riesgos y oportunidades que plantea la IA. En lugar de asumir una superación de lo humano por lo artificial, se propone una racionalidad híbrida que articule la capacidad computacional de los sistemas con el juicio ético, crítico y situado del sujeto humano. Así, se aboga por un uso reflexivo de la IA, que contribuya a ampliar, y no a sustituir, la toma de decisiones por las personas en la sociedad contemporánea.

Referencias

Andino, T. (2020). Neuroeconomía, decisión de compra y el comportamiento económico en la cuidad de

Manta–Manabí. Journal Business Science, 1(2), 37–45. https://bit.ly/44KNf4q

Barredo, A., Díaz, N., Del Ser, J., Bennetot, A., Tabik, S., Barbado, A., García, S., Gil, S., Molina, D., Benja

mins, R., Chatila, R. & Herrera, F. (2020). Explainable Artificial Intelligence (XAI): Concepts, taxonomies,

opportunities and challenges toward responsible AI. Information Fusion, Vol. 58, 82-115, https://doi.

org/10.1016/j.inffus.2019.12.012.

Bayas, L. (2024). El impacto de la inteligencia artificial en la limitación del desarrollo del pensamiento lógico

y crítico en estudiantes universitarios. Suplemento CICA Multidisciplinario, 8(018), 6–39. https://doi.

org/10.56124/scicam.v8i018.001

Becker, G. S. (1976). The economic approach to human behavior. University of Chicago Press.

Binz, M., & Schulz, E. (2022). Using cognitive psychology to understand GPT-3. arXiv preprint arXiv:2206.14576.

https://arxiv.org/abs/2206.14576

Booch, G., Fabiano, F., Horesh, L., Kate, K., Lenchner, J., Linck, N., Loreggia, A., Murgesan, K., Mattei, N.,

Rossi, F., & Srivastava, B. (2021). Thinking Fast and Slow in AI. Proceedings of the AAAI Conference on

Artificial Intelligence, 35(17), 15042-15046. https://doi.org/10.1609/aaai.v35i17.17765

Burrell, J. (2016). How the machine ‘thinks’: Understanding opacity in machine learning algorithms. Big Data

& Society, 3(1). https://doi.org/10.1177/2053951715622512

Cantú, P. (2024). Inteligencia artificial y sus connotaciones éticas. Revista Iberoamericana de Bioética, (25),

01–11. https://doi.org/10.14422/rib.i25.y2024.008

Cordero, Y. y Jiménez, H. (2024). La inteligencia Artificial en la Educación: Desafíos, Oportunidades y

Amenazas. En Ediciones ULEAM Aprendizaje, formación y calidad educativa (pp. 6-30). https://bit.ly/

4jcDxex

Corvalán, J. (2018). Inteligencia artificial: retos, desafíos y oportunidades – Prometea: la primera inteligen

cia artificial de Latinoamérica al servicio de la Justicia. Revista de Investigações Constitucionais, 5(1),

295–316. https://doi.org/10.5380/rinc.v5i1.55334

Cravino, A. y Pokropek, J. (2018). Racionalidad limitada: las dificultades de la toma de decisiones en el

Diseño para la sustentabilidad. RChD: Creación y Pensamiento, 3(5). https://doi.org/10.5354/0719

837X.2018.49742

Estévez, E., Fillottrani, P., y Linares, S. (2020). PROMETEA: Transformando la administración de justicia con

herramientas de inteligencia artificial. https://doi.org/10.18235/0002378

Hernández, J. I. (2023). Hacia una racionalidad históricamente acotada: la crítica de Herbert A. Simon a la no

ción neoclásica de “agente racional”. Tópicos, Revista de Filosofía, 68, 35-68. https://doi.org/10.21555/

top.v680.2374

Hernández, R., Fernández, C. y Baptista, M. (2014). Metodología de la investigación. McGraw-Hill, Sexta

Edición, México. https://bit.ly/3ScI2Lo

Ibarra, E. (2010). Herbert A. Simon y su monomanía: El comportamiento humano como comportamiento arti

f

icial. Gestión y política pública, 19(1), 155-170. https://bit.ly/432fiLt

Ji, Z., Lee, N., Frieske, R., Yu, T., Xu, Ishii, E., Jin Bang, Y., Madotto, A. & Fung, P. (2023). Survey of Hallu

cination in Natural Language Generation. ACM Computing Surveys (CSUR). 55 (12), 1-38. https://doi.

org/10.1145/3571730

Mehrabi N., Morstatter, F., Saxena, N., Lerman, K. & Galstyan, A. (2021). A Survey on Bias and Fairness in Ma

chine Learning. ACM Computing Surveys (CSUR). 54(6), 1-35. https://doi.org/10.1145/3457607

Mittelstadt, B. (2019). Principles alone cannot guarantee ethical AI. Nature machine intelligence, 1(11), 501

507. https://doi.org/10.1038/s42256-019-0114-4

Morales Fredes, F. (2025, mayo 17). De algoritmo a apoyo emocional: Los 10 principales usos de la IA en 2025.

El Economista. https://bit.ly/43znEdA

Rastogi, C., Zhang, Y., Wei, D., Varshney, K. R., Dhurandhar, A., & Tomsett, R. (2020). Deciding Fast and Slow:

The Role of Cognitive Biases in AI-assisted Decision-making. arXiv preprint arXiv:2010.07938. https://

arxiv.org/abs/2010.07938

Rodríguez, Y. (2012). El impacto de la racionalidad limitada en el proceso informacional de toma de deci

siones organizacionales. Revista Cubana de Información en Ciencias de la Salud, 24(1). https://acimed.

sld.cu/index.php/acimed/article/view/401

Sánchez, M. (2022). La inteligencia artificial en el sector público y su límite respecto de los derechos fundamen

tales. Estudios constitucionales, 20(2), 257-284. https://dx.doi.org/10.4067/S0718-52002022000200257

Sánchez, M. (2024). La era de la inteligencia artificial generativa y la sombra de 1984: ¿puede la tecnología

más disruptiva del siglo XXI abrir paso a la concreción de la distopía orwelliana? El Derecho - Derecho,

Innovación & Desarrollo Sustentable - Número 17. https://www.elderecho.com.ar/index.php?option=

publicaciones

Santa Cruz, J. (2024). Racionalidad limitada y sesgos cognitivos judiciales. Sobre el deber de juzgar sin sesgos

cognitivos. Revista Oficial del Poder Judicial, 16(22), 225-261. https://doi.org/10.35292/ropj.v16i22.1052

Simon, H. (1982). Models of Bounded Rationality: Economic Analysis and Public Policy. MIT Press.

Simon, H. (1955). A Behavioral Model of Rational Choice, The Quarterly Journal of Economics, 69 (1), 99–118.

https://bit.ly/43JwDIn

Pérez, Armenio y Aimara (2024). Contribuciones a la racionalidad del agente económico. Economía y Nego

cios, 15(2), 121-135. https://doi.org/https:/doi.org/10.29019/eyn.v15i2.1362

Velázquez, F. y Flores, J. (2024). Racionalidad artificial: Un modelo de análisis sobre el uso de la inteligencia

artificial generativa en las organizaciones. Academia.edu. https://bit.ly/4mm1UcJ

Zednik, C. (2021) Solving the Black Box Problem: A Normative Framework for Explainable Artificial Intelli

gence. Philos. Technol. 34, 265–288 (2021). https://doi.org/10.1007/s13347-019-00382-7

Descargas

Publicado

2025-06-30

Número

Sección

Artículos

Cómo citar

Valoración de la Inteligencia Artificial desde la teoría de la racionalidad limitada de Herbert Simon (Y. N. Cordero de Jiménez & J. M. . Chávez Charro, Trans.). (2025). Política Justicia Social Y Gobernanza, 1(1). https://politicajusticiasocialygobernanza.uteg.edu.ec/index.php/pjsg/article/view/37