Mostrar el registro sencillo del ítem
Una reflexión desde la ética utilitarista sobre el empleo del uso de los sistemas de Armas Autónomas Letales con Inteligencia Artificial, en el marco de DIH.
| dc.contributor.author | Beltrán Lopez, Jose Fernando | |
| dc.coverage.spatial | Bogotá, Escuela Superior de Guerra "Rafael Reyes Prieto", 2025 | |
| dc.date.accessioned | 2026-05-07T21:32:08Z | |
| dc.date.available | 2026-05-07T21:32:08Z | |
| dc.date.issued | 2025 | |
| dc.date.submitted | 2025 | |
| dc.identifier.uri | https://hdl.handle.net/20.500.14205/12084 | |
| dc.description.abstract | La Inteligencia Artificial, como menciona Vicent (2023) es una tecnología disruptiva que puede llevar a cabo “tareas que habíamos relacionado con la inteligencia humana” (Vicent, 2023, pág. 10) es una tecnología que la humanidad nunca había conocido, puede tomar decisiones y generar nuevas ideas por sí misma, la IA no es una herramienta, es un agente y un medio. Cada vez, crece a la par de su desarrollo, crea preocupaciones por sus fallos y sesgos, así como por su evolución descontrolada, en el campo militar su empleo resulta tanto más polémico, puesto que la IA puede fallar al evaluar la información y generar recomendaciones, el uso de IA es contributivo para el desarrollo y uso de Sistemas de Armas Autónomas Letales (SAAL) las cuales pueden desarrollar operaciones con escasa o nula intervención humana mediante programación algorítmica capaz de actuar con mortalidad de manera autónoma. En este contexto, la reflexión ética acerca de la conveniencia e implicaciones de su empleo, así como el cumplimiento a las restricciones jurídicas del Derecho Internacional Humanitario, nos daría la viabilidad de optar por el uso de los SAAL. En el presente capitulo se defiende que, esta tecnología solo puede desarrollarse y en consecuencia valorarse éticamente en el marco del utilitarismo virtuoso; así como su aplicación y explotación de su máximo potencial, solo puede realizarse dentro del espectro de restricciones que impone el DIH. | es_ES |
| dc.description.abstract | Artificial intelligence, as mentioned by Vicent (2023), is a disruptive technology capable of performing “tasks that we had associated with human intelligence” (Vicent, 2023, p. 10). It is a technology that humanity had not known until now, capable of making decisions and generating new ideas on its own. AI is not a tool, but an agent and a means. As it grows alongside its development, concerns arise about its failures and biases, as well as its uncontrolled evolution. In the military sphere, its use is even more controversial, as AI can fail when evaluating information and generating recommendations. The use of AI contributes to the development of lethal autonomous weapons (LAWs), which can carry out operations with little or no human intervention through algorithmic programming capable of acting autonomously with lethality. In this context, ethical reflection on the appropriateness and implications of its use, as well as compliance with the legal restrictions of international humanitarian law, would give us the viability to opt for the use of LAWS. This chapter argues that this technology can only be developed and, consequently, ethically evaluated within the framework of virtuous utilitarianism; similarly, its application and exploitation to its full potential can only be carried out within the spectrum of restrictions imposed by IHL. | es_ES |
| dc.format.extent | 36 páginas | |
| dc.format.mimetype | application/pdf | es_ES |
| dc.language.iso | spa | es_ES |
| dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/4.0/ | * |
| dc.title | Una reflexión desde la ética utilitarista sobre el empleo del uso de los sistemas de Armas Autónomas Letales con Inteligencia Artificial, en el marco de DIH. | es_ES |
| dc.title.alternative | An ethical reflection on the use of lethal autonomous weapons system with AI, in the context of IHL | es_ES |
| dcterms.bibliographicCitation | Álvarez Calderon, C., Santafe Garcia, J., & Urbano Morales, O. (2017). MetaMorphosis BelluM: ¿mutando a guerras de quinta generación? En C. Alvares Calderon, Escenarios y Desafíos de la seguridad Multidimensional en Colombia (pág. 153). Escuela Superior de Guerra | es_ES |
| dcterms.bibliographicCitation | Aravena Flores, M. (2023). Dilemas derivados del uso de sistemas autónomos de armas letales en el derecho internacional humanitario1. JUSTICIA. doi:https://revistas.unisimon.edu.co/index.php/justicia/article/view/7143/6563 | es_ES |
| dcterms.bibliographicCitation | Ágreda, Á. G. (2021). Ética del ecosistema hibrido Cognitivo entre el espacio fisico y el ciberespacio. Aproximacion desde el caso de la inteligencia artificial. Industriale ES. | es_ES |
| dcterms.bibliographicCitation | AGUILAR, O. (2023). LA INTELIGENCIA ARTIFICIAL COMO HERRAMIENTA DEL PROCESO DE COMANDO Y CONTROL DE COMANDANTE DELTEATRO DE OPERACIONES. Escuela Superior de Guerra Conjunta de las Fuerzas Armadas. Argentina. Obtenido de https://cefadigital.edu.ar/bitstream/1847939/2929/1/TFI%2001-2023%20AGUILAR.pdf | es_ES |
| dcterms.bibliographicCitation | Alderman, R. (05 de Febrero de 2015). militaryembedded. Obtenido de Defining fifth generation warfare: https://militaryembedded.com/unmanned/isr/defining-fifth-generation-warfare | es_ES |
| dcterms.bibliographicCitation | Alexander, L. (2000). Deontology at the Threshold. SAN DIEGO LAW REVIEW- : Forthcoming in University of San Diego Law Review, Vol. 37, Pp. 893-912, 2000 | es_ES |
| dcterms.bibliographicCitation | Allen, J., & Husain, A. (2017). ON HYPERWAR. United States Naval Institute. Proceedings; Annapolis, 7, 30-37. doi:https://www.proquest.com/military/trade-journals/on | es_ES |
| dcterms.bibliographicCitation | AlShebli, B., Memon, S., Evans, J., & Rahwan, T. (2024). China and the U.S. produce more impactful AI research when collaborating together. Scientific Reports Nature Portafolio, 14, 13. doi: https://doi.org/10.1038/s41598-024-79863-5 | es_ES |
| dcterms.bibliographicCitation | Alvarez, C., & Jimenez, H. (2021). Guerra de información y ética militar: entre la tradición de guerra justa y la teoría de guerra irrestricta. En J. jimenez, E. Figueroa, & M. Bricknell, Volumen II. Ética militar y nuevas formas de guerra. Retos para las Fuerzas Armadas colombianas (pág. 128). Esmic. Obtenido de https://d1wqtxts1xzle7.cloudfront.net/74652742/Etica_militar_y_Fuerza_Publica_Vol_II-libre.pdf?1636932333=&response-content-disposition=inline%3B+filename%3DEtica_militar_y_nuevas_formas_de_guerra.pdf&Expires=1743661063&Signature=HWnHHtPNB4meBxEskiw9ZEWRv | es_ES |
| dcterms.bibliographicCitation | Amoroso, D., & Tmburrini, G. (2020). Autonomous Weapons Systems and Meaningful Human Control:. Springer, ROBOETHICS (G VERUGGIO, SECTION EDITOR(Current Robotics Reports (2020) 1:187–194). doi:https://link.springer.com/content/pdf/10.1007/s43154-020-00024-3.pdf | es_ES |
| dcterms.bibliographicCitation | Aravena, M. (2024). Dilemas derivados del uso de sistemas autónomos de armas letales en el derecho internacional humanitario. Justicia. doi:https://doi.org/10.17081/just.29.45.7143 | es_ES |
| dcterms.bibliographicCitation | Aravena-Flores. (2024). Inteligencia Artificial: Problemas de responsabilidad penal derivados del uso de sistemads autonomos de armas letales. Revista de derecho Coquimbo, 31. | es_ES |
| dcterms.bibliographicCitation | Aristoteles. (1985). Ética a Nicómaco (A. L. Esteva et al., Eds. Mexico: Fondo de Cultura Económica. (Obra original escrita ca. 350 a.C.). | es_ES |
| dcterms.bibliographicCitation | Arora, a. (2018). Mathematics- Establishing a Theoretical Understanding of Machine Learning. Obtenido de ias.edu: https://www.ias.edu/ideas/arora-machine-learning | es_ES |
| dcterms.bibliographicCitation | Asamblea General Naciones Unidas. (2023). Resolución aprobada por la Asamblea General A/RES/78/241 . Naciones Unidas. | es_ES |
| dcterms.bibliographicCitation | Barreiro , A., & Márquez , A. (2024). Imprevisibilidad normativa en el Derecho Internacional respecto a los sistemas de armas autónomas letales. Revista Logos Ciencia & Tecnología, 16(1), 16-31 | Enero-abril, 2024 . doi:http://www.scielo.org.co/pdf/logos/v16n1/2422-4200-logos-16-01-16.pdf | es_ES |
| dcterms.bibliographicCitation | Bentham, J. (2013). Moralės bei įstatymų leidybos principų įvadas. 83, 188–190. (Obra original publicada en 1823).: Problemos. | es_ES |
| dcterms.bibliographicCitation | Bremmer, I., & Suleyman, M. (2023). The AI power paradox. Foreing Affairs, 102, 26-43 | es_ES |
| dcterms.bibliographicCitation | Cano, D. (2024). “Desafíos de la seguridad humana en los nuevos dominios de la guerra. NOVUM JUS, 18, 48. Obtenido de https://novumjus.ucatolica.edu.co/article/view/5510/5608 | es_ES |
| dcterms.bibliographicCitation | Cappuccio , M., Galliot, J., & Alnajjar, F. (2022). A taste of Armageddon: A virtue ethics perspective on autonomous weapons and moral injury. Ethics, 21(1), 1–20. https://doi.org/10.1080/15027570.2022.2063103: Journal of Military. | es_ES |
| dcterms.bibliographicCitation | Cathcart, T., & Klein, D. (2018). Platón y un ornitorrinco entran en un bar-. (N. P. Valls, Trad.) Epublibre. Obtenido de https://www.goodreads.com/book/show/180995.Plato_and_a_Platypus_Walk_Into_a_Bar | es_ES |
| dcterms.bibliographicCitation | CCW. (2019). Convention on Prohibitions or Restrictions on the Use of Certain Conventional Weapons Which May Be Deemed to Be Excessively Injurious or to Have Indiscriminate Effects. Ginebra: UNODA. Obtenido de https://documents.unoda.org/wp-content/uploads/2020/09/CCW_GGE.1_2019_3_E.pdf | es_ES |
| dcterms.bibliographicCitation | Chul Han, B. (2014). Psicopolitica- Neoliberalismo y nuevas tecnicas de poder. Barcelona: Herder Editorial . | es_ES |
| dcterms.bibliographicCitation | CICR. (JULIO de 2004). SERVICIO DE ASESORAMIENTO EN DERECHO INTERNACIONAL HUMANITARIO -. Obtenido de ¿Qué es el derecho internacional humanitario? : https://www.icrc.org/sites/default/files/document/file_list/dih.es_.pdf | es_ES |
| dcterms.bibliographicCitation | CICR. (2010). Protocols Additional To the Geneva Conventions of 12 August 1949. Geneva: ICRC. Obtenido de https://www.icrc.org/sites/default/files/external/doc/en/assets/files/other/icrc_002_0321.pdf?utm_source=chatgpt.com | es_ES |
| dcterms.bibliographicCitation | CICR. (03 de Agosto de 2021). Comite Internaiconal de la Cruz Roja. Obtenido de Sistemas de armas autónomos letales: el CICR recomienda la adopción de nuevas reglas: https://www.icrc.org/es/document/sistemas-armas-autonomos-letales-cicr-recomienda-adopcion-nuevas-reglas | es_ES |
| dcterms.bibliographicCitation | CICR. (26 de 07 de 2022). Comite Internacional de la Cruz Roja. Obtenido de Preguntas y respuestas: Lo que hay que saber sobre las armas autónomas: https://www.icrc.org/es/document/preguntas-y-respuestas-sobre-armas-autonomas | es_ES |
| dcterms.bibliographicCitation | CICR. (aBRIL de 2024). Consejo de Delegados, titulado “Armas y derecho internacional humanitario”. Obtenido de Armas y derecho internacional humanitario : https://rcrcconference.org/app/uploads/2024/04/CoD24-Background-doc-Weapons-and-IHL-ES.pdf | es_ES |
| dcterms.bibliographicCitation | Colijin, A., & Podar, H. (2025). Technical Risks of (Lethal). Encode Justice. Obtenido de https://arxiv.org/pdf/2502.10174 | es_ES |
| dcterms.bibliographicCitation | Comite Internacional de la Cruz Roja. (2019). International humanitarian law and the challenges of contemporary armed conflicts. CICR. doi: doi:10.1017/S1816383119000523 | es_ES |
| dcterms.bibliographicCitation | Conpes. (2025). POLÍTICA NACIONAL DE INTELIGENCIA ARTIFICIAL - CONPES 4144. Bogota: Republica de Colombia. | es_ES |
| dcterms.bibliographicCitation | Correa, C. (2024). ÉTICA Y DERECHO: ENCUENTRO ENTRE UTILITARISMO E INTERESES DE LOS ANIMALES. REVISTA CIENTÍFICA EN ESTUDIOS SOCIALES | NÚM., 4, AÑO 2, ENERO-JUNIO 2024 , 4, 3. doi:https://orcid.org/0000-0002-1242-4922 | es_ES |
| dcterms.bibliographicCitation | Cossi Elso, F. (2019). Inteligencia Artificial y Sistemas de Armas Autonomos. Revista Marina 973, 72. | es_ES |
| dcterms.bibliographicCitation | Cotino Hueso , L., & Gómez de Ágreda, Á. (2024). Criterios éticos de derecho internacional humanitario en el uso de sistemas militares dotados de inteligencia artificial. NOVUM JUS, 18(1692-6013 ), 253. doi:https://novumjus.ucatolica.edu.co/article/view/5496/5029 | es_ES |
| dcterms.bibliographicCitation | Cozzi, F. (2025). Inteligencia artificial y sistemas de armas autónomos. Revista de Marina, 12. | es_ES |
| dcterms.bibliographicCitation | Creveld, M. (1991). Technology and war- from 2000 b.c to the present a revised and expanded edition. Maxwell Macmillan Canada. doi:https://books.google.com.co/books?hl=es&lr=&id=A7FZ98dFQbkC&oi=fnd&pg=PR10&dq=echnology+and+War:+From+2000+B.C.+to+the+Present+(1989)&ots=1l0UwNGcV0&sig=qNXBDBq4k05c1wCypayQIR1xULA&redir_esc=y#v=onepage&q&f=false | es_ES |
| dcterms.bibliographicCitation | Crisp, R. (1997). Reasons and the good. Clarendon Pres. | es_ES |
| dcterms.bibliographicCitation | CROCE, B. (1921). MATERIALISMO STORICO ED ECONOMIA MARXISTICA. BARI- ITALIA: TIPOGRAFI-EDITORI-LIBRAI. doi:https://ia804504.us.archive.org/23/items/materialismostor00croc/materialismostor00croc.pdf | es_ES |
| dcterms.bibliographicCitation | Damasio, A. (1994). Emotion, Reason and the Human Brain. New York: Avom Books. | es_ES |
| dcterms.bibliographicCitation | Danaher, J. (2015). Autonomous Weapons Systems:Law, Ethics, Policy. Ethic Theory Moral Prac, 4. doi:DOI 10.1007/s10677-017-9830-1 | es_ES |
| dcterms.bibliographicCitation | Danaher, J. (2016). The threat of algocracy: Reality, resistance and accommodation: Philosophy & Technology (Vols. Volume 29, pages 245–268). Springer. Obtenido de https://doi.org/10.1007/s13347-015-0211-1 | es_ES |
| dcterms.bibliographicCitation | Del Valle, M. (2016). SISTEMAS DE ARMAS lETAlES AUTÓNOMAS: ¿UN RIESGO qUE vAlE lA PENA TOMAR?*. Lecciones y Ensayos, Nro. 97, 2016, 225-247. Obtenido de https://www.derecho.uba.ar/publicaciones/lye/revistas/97/sistemas-de-armas-letales-autonomas.pdf: https://www.derecho.uba.ar/publicaciones/lye/revistas/97/sistemas-de-armas-letales-autonomas.pdf | es_ES |
| dcterms.bibliographicCitation | Demeyere, B. (2025). Merging man and machine: A legal assessment of brain–computer. En D. Koecke, Humanitarian debate: Law, policy, action-International Review of the Red Cross (pág. 434). Geneva: IRRC. | es_ES |
| dcterms.bibliographicCitation | Departament of Defense. (25 de enero de 2023). AUTONOMY IN WEAPON SYSTEMS. Obtenido de https://www.esd.whs.mil/portals/54/documents/dd/issuances/dodd/300009p.pdf | es_ES |
| dcterms.bibliographicCitation | Englert, S., Ziegler, M., & Siebert. (2014). Logical limitations to machine ethics with consequences to lethal autonomous weapons. arXiv. | es_ES |
| dcterms.bibliographicCitation | Escuela Superior de Guerra" General Rafael Reyes Prieto". (2024). El humano estratega vs la inteligencia artificial. Antropormorfismo o autonomia, una decision vital mas que funcional. En C. ACEVEDO, H. ACOSTA, J. ALMEIDA, C. ARDILA, CABRERA LESTER, D. CANO CUEVAS, . . . G. GOMEZ, & ARANZADI (Ed.), Escenarios de incentidumbre para la inteligencia estrategica (pág. 51). LAS ROZAS, MADRID, ESPAÑA: ARANZADI. Obtenido de https://rcumariacristina.es/wp-content/uploads/Separata-San-Cristobal-Documentos-clasificados.pdf | es_ES |
| dcterms.bibliographicCitation | European Parliament. (12 de Julio de 2024). Artificial intelligence act. EPRS | European Parliamentary Research Service . Romania. Obtenido de https://www.europarl.europa.eu/RegData/etudes/BRIE/2021/698792/EPRS_BRI(2021)698792_EN.pdf | es_ES |
| dcterms.bibliographicCitation | Fisher, A. (2010). Virtue, rules, and utility. 120(4), 742–768.: Ethics. Obtenido de https://doi.org/10.1086/656312 | es_ES |
| dcterms.bibliographicCitation | Friedman, T. (2006). La tierra es plana- breve historia del mundo globalizado del siglo xxi. Ediciones Martínez Roca, S.A. doi:https://laescuelainvisible.wordpress.com/wp-content/uploads/2019/12/la-tierra-es-plana-breve-historia-del-siglo-xxi-thomas-l-friedman.pdf | es_ES |
| dcterms.bibliographicCitation | Fronsini, F. (2022). Introducción. La guerra entre política, ética y arte militar en Maquiavelo. (E. Complutense, Ed.) Las torres de luca, 11, 219-221. doi:https://revistas.ucm.es/index.php/LTDL/article/view/82650 | es_ES |
| dcterms.bibliographicCitation | Fuerzas Militares de Colombia. (2018). Manual Fundamental Conjunto 1.o Doctrina Conjunta. Comando General Fuerzas Militares. doi:https://esdegue.edu.co/sites/default/files/2024-03/MFC%201.0%20DOCTRINA%20CONJUNTA.pdf | es_ES |
| dcterms.bibliographicCitation | Galan, R. (28 de Agosto de 2025). https://www.esquire.com. Obtenido de https://www.esquire.com/es/tecnologia/a65395356/yuval-noah-harari-historiador-inteligencia-artificial-amenaza-nexus-reflexion/ | es_ES |
| dcterms.bibliographicCitation | Gantiva, C. (2021). Ética militar e inteligencia artificial: reflexiones para Colombia desde el contexto global actual. En J. Jimenez, E. Figueroa, & M. Bricknell, Ética militar y Fuerza Pública en Colombia (pág. 128). Esmic. Obtenido de https://d1wqtxts1xzle7.cloudfront.net/74652742/Etica_militar_y_Fuerza_Publica_Vol_II-libre.pdf?1636932333=&response-content-disposition=inline%3B+filename%3DEtica_militar_y_nuevas_formas_de_guerra.pdf&Expires=1743661063&Signature=HWnHHtPNB4meBxEskiw9ZEWRv | es_ES |
| dcterms.bibliographicCitation | Gayozzo, P. (2021). Guerra de quinta generación en la Cuarta Revolución Industrial. FUTURO HOY VOL. 02 NÚMERO 01 - "RETOS DE LA INDUSTRIA 4.0" |MAR 2021 - LIMA, PERÚ, 2, 1. doi:https://pdfs.semanticscholar.org/3813/e91ad4dcdaaf555b62be744e093ce3899ed2.pdf | es_ES |
| dcterms.bibliographicCitation | Gómez Rodriguez, G. (2017). Riesgos de transgresión moral del militar en la postmodernidad (Universitat de Barcelona ed.). Universitat de Barcelona. doi:https://diposit.ub.edu/dspace/bitstream/2445/119533/1/GAGR_TESIS.pdf | es_ES |
| dcterms.bibliographicCitation | Gudin, F. (2020). El Libro blanco de la Comisión Europea o el intento de lograr el humanismo tecnológico. (A. Juridico, Ed.) Universidad Nacional Abierta y a Distancia. Obtenido de https://hemeroteca.unad.edu.co/index.php/analisis/article/view/3819/4104 | es_ES |
| dcterms.bibliographicCitation | Henselmann , G., & Lehto, M. (2020). Non-Kinetic Warfare: The New Game Changer in the Battle Space. Academic Conferences International Limited., https://doi.org/10.34190/ICCWS.20.033. | es_ES |
| dcterms.bibliographicCitation | Hernández Sampieri, R., & Mendoza Torres, C. (2018). Metodología de la investigación: Las rutas cuantitativa, cualitativa y mixta. Cuidad de Mexico: McGraw Hill Interamericana. | es_ES |
| dcterms.bibliographicCitation | Hume, D. (1992). Tratado de la naturaleza Humana ( Autobiografia) (Estudio preliminar, traducción y notas, F é l i x D u q u e , 1988 ed.). (D. Felix, Ed.) Madrid: Tecnos. Obtenido de https://blogportafolioconocimiento.wordpress.com/wp-content/uploads/2018/06/hume-david-tratado-de-la-naturaleza-humana-trad-fc3a9lix-duque.pdf | es_ES |
| dcterms.bibliographicCitation | ICRC. (12 de 05 de 2021). Posición del CICR sobre los sistemas de armas autónomos. Obtenido de COMITE INTERNACIONAL DE LA CRUZ ROJA-Las preocupaciones del CICR acerca de los sistemas de armas autónomos: https://www.icrc.org/es/document/posicion-del-cicr-sobre-los-sistemas-de-armas-autonomos | es_ES |
| dcterms.bibliographicCitation | Ignacio, S. (2024). El desarrollo normativo, ético y tecnológico de los Sistemas Autónomos Letales. Revista Iberoamericana de Filosofía, Política, Humanidades y Relaciones Internacionales, 57, 40. Obtenido de https://sftpinstitu.us.es/revistas/Araucaria/57/1.ideas/2.moll.pdf | es_ES |
| dcterms.bibliographicCitation | Jamienson, D. (2007). When utilitarians should be virtue theorists. 19(2), 160–183. https://doi.org/10.1017/S0953820807002452: Utilitas | es_ES |
| dcterms.bibliographicCitation | Kant, I. (1995). Fundamentacion de la Metafisica de las Costumbres. ESPASA- CALPE. doi:https://www.cervantesvirtual.com/obra-visor/fundamentacion-de-la-metafisica-de-las-costumbres--0/html/dcb0941a-2dc6-11e2-b417-000475f5bda5_3.html | es_ES |
| dcterms.bibliographicCitation | Kant, I. (2018). HACIA LA PAZ PERPETUA - UN DISEÑO FILOSOFICO. (C. C. Attribution, Ed., & R. Aramayo, Trad.) Madrid: Ediciones Alamanda. Obtenido de https://books.google.com.co/books?hl=es&lr=&id=Mo9xDwAAQBAJ&oi=fnd&pg=PA50&dq=Hacia+la+paz+perpetua:+Un+proyecto+filos%C3%B3fico&ots=bOcp8sjdXh&sig=c6ga5DY0BuxWhrTMVh3Hopibacw&redir_esc=y#v=onepage&q&f=false | es_ES |
| dcterms.bibliographicCitation | Kelley, S. (2019). U.S. Policy on Lethal Autonomous Weapon Systems. Defense Primer, https://www.hsdl.org/?abstract&did=823590. | es_ES |
| dcterms.bibliographicCitation | Klamberg, M. (2023). Regulatory Choices at the Advent of Gig Warfare and Killer Robots. Journal of International Humanitarian Legal Studies (Forthcoming), 18. Obtenido de https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4464320 | es_ES |
| dcterms.bibliographicCitation | Kreps, S. (2025). Inteligencia artificial y elecciones ¿amenazas prematuras? En S. Grundberger, DEMOCRACIA ARTIFICIAL- Dialogo Politico (pág. 10). Montevideo, Uruguay: © Konrad-Adenauer-Sti ung. Obtenido de https://dialogopolitico.org/wp-content/uploads/2025/01/Democracia-Artificial.-Dialogo-Politico.-2025.pdf | es_ES |
| dcterms.bibliographicCitation | Langton, C. (1989). Artificial Life: Proceedings Of An Interdisciplinary Workshop On The Synthesis And Simulation Of Living Systems (1st ed.). NewYork: Routledge. | es_ES |
| dcterms.bibliographicCitation | Lopez, J. (2011). La crisis de Libia desde la perspectiva de la responsabilidad de proteger. anuario español de derecho internacional / vol. 27 / 2011, 27, 108. doi:https://dadun.unav.edu/entities/publication/7f45b032-a076-44fa-b2cd-832f757d699c | es_ES |
| dcterms.bibliographicCitation | Ltc. Reeves, S., & Maj. Johnson, W. (2014). Autonomous Weapons: Are You Sure These Are Killer Robots? Can We Talk About It? THE ARMY LAWYER(DA PAM 27-50-491), 8. Obtenido de https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2427923 | es_ES |
| dcterms.bibliographicCitation | Macintyre, A. (1984). After Virtue A study in moral Theory. Indiana: University of Notre Dame Press. | es_ES |
| dcterms.bibliographicCitation | Maquiavelo, N. (1998). El principe. (S. Mastrangelo, Trad.) Montevideo: Nordan Comunidad. doi:https://archive.org/details/maquiavelo-nicolas.-el-principe-bilingue-ital.-esp.-1993/mode/1up?view=theater | es_ES |
| dcterms.bibliographicCitation | Martinez, M. (2016). La guerra y el destino moral de la especie. Comentario a kant: La guerra y el progreso moral. Open Insigth - Centro de investigacion social avanzada, 7 No 11, 39. doi:https://dialnet.unirioja.es/servlet/articulo?codigo=5386502 | es_ES |
| dcterms.bibliographicCitation | Meerveld, H., Lindelauf, R., Postma, M., & Postma, M. (2023). The irresponsibility of not using AI in the military. Springer Nature Link, 25, 7. Obtenido de https://link.springer.com/article/10.1007/s10676-023-09683-0#citeas | es_ES |
| dcterms.bibliographicCitation | Mier, S. G. (2019). Inteligencia artificial como herramienta de estrategia y seguridad para defensa de los Estados. Revista de la Escuela Superior de Guerra Naval, 51-70. | es_ES |
| dcterms.bibliographicCitation | Mill, J. (1863). Utilitarianism. Parker, Son, and Bourn. | es_ES |
| dcterms.bibliographicCitation | O´Neill. (2013). Autonomy and trust in bioethics. Cambridge University Press. | es_ES |
| dcterms.bibliographicCitation | Obregon , A., & Lazcoz, G. (2021). LA SUPERVISIÓN HUMANA DE LOS SISTEMAS DE INTELIGENCIA ARTIFICIAL DE ALTO RIESGO. APORTACIONES DESDE EL DERECHO INTERNACIONAL HUMANITARIO Y EL DERECHO DE LA UNIÓN EUROPEA. REEI, núm. 42, diciembre 2021, 42. doi:DOI: 10.17103/reei.42.08 | es_ES |
| dcterms.bibliographicCitation | Oliveira, A., Santos , R., & Nunes, N. (2019). O ENCONTRO DA GUERRA CIBERNÉTICA COM AS GUERRAS ELETRÔNICA E CINÉTICA NO ÂMBITO DO PODER MARÍTIMO. Revista da Escola de Guerra Naval. doi:25(1), 89-128 | es_ES |
| dcterms.bibliographicCitation | Omlin, C., & Saeed, W. (2021). EXPLAINABLE AI (XAI): A SYSTEMATIC META-SURVEY OF CURRENT CHALLENGES AND FUTURE OPPORTUNITIES. Explainable AI: A Systematic Meta-Survey of Current Challenges and Future Opportunities A PREPRINT, 2. Obtenido de https://arxiv.org/pdf/2111.06420 | es_ES |
| dcterms.bibliographicCitation | Oropeza, T. (2016). Kant: la guerra y el progreso moral. Open Insight • Volumen VII • Nº 11 (enero-junio 2016) • pp. 11-33, 11, 12. doi:https://www.scielo.org.mx/pdf/rfoi/v7n11/2395-8936-rfoi-7-11-00011.pdf | es_ES |
| dcterms.bibliographicCitation | Osoba, O. (2024). A complex-systems view on military decision making. Australian Journal of International Affair, 78, 4. Obtenido de https://www.tandfonline.com/doi/citedby/10.1080/10357718.2024.2333817?scroll=top&needAccess=true | es_ES |
| dcterms.bibliographicCitation | Otan. (2021). NORTH ATLANTIC TREATY ORGANIZATION (NATO) AJP-3.9. NATO STANDARDIZATION OFFICE (NSO). Obtenido de https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/1033306/AJP-3.9_EDB_V1_E.pdf | es_ES |
| dcterms.bibliographicCitation | Podar, H., & Coljin, A. (2025). Technical risks of (lethal) autonomous weapons systems. arXiv. | es_ES |
| dcterms.bibliographicCitation | Qamar, R., & Zardari, B. (2023). Artificial Neural Networks: An Overview. Mesopotamian journal of Computer Science, 130-139. | es_ES |
| dcterms.bibliographicCitation | Ramírez, W., & Marín , C. (2022). Sistemas de armas autónomas letales: regulación de su uso en escenarios de conflicto armado. Revista Derechos Humanos, Conflicto y Justicia, Volumen 1, número 1, enero-junio 2022, 27-47. Obtenido de https://esdegrevistas.edu.co/index.php/rdcj/article/view/4409/5010 | es_ES |
| dcterms.bibliographicCitation | Ratcliff, R. E. (2007). Cómo Convertirse en un Oficial Distinguido. Joint Forces Quarterly (JFQ), 1st Quarter-Air & Space Power Journal, P.1. | es_ES |
| dcterms.bibliographicCitation | Realpe Diaz, M., & Gomez Rodriguez, G. (2024). El Humano Estratega vs la Inteligencia Artificial- Antropomorfismo una desicion vital mas que funcional. En R. Paya, & R. Sanz, Escenarios de incetidumbre para la inteligencia estrategica en el contexto de la seguridad global (pág. 28). Editorial Aranzadi SAU. | es_ES |
| dcterms.bibliographicCitation | Rousseau, J. J. (1821). EMILIIO Ó DE LA EDUCACION (Vol. 1). (j. Marchena, Trad.) Imprenta de Alban y Compañia. Obtenido de https://books.google.com.co/books?hl=es&lr=&id=xvyByP2lslYC&oi=fnd&pg=PA1&dq=Emilio+o+De+la+educaci%C3%B3n&ots=f0_U0kWzSS&sig=-VkrjtJMrgTZv0o-UFi75m26dHY&redir_esc=y#v=onepage&q=avance&f=false | es_ES |
| dcterms.bibliographicCitation | Santoni de Sio, F., & Van den Hoven, J. (2018). Meaningful Human Control over Autonomous Systems: A Philosophical Account. Sec. Ethics in Robotics and Artificial Intelligence, 5-15. Obtenido de https://doi.org/10.3389/frobt.2018.00015 | es_ES |
| dcterms.bibliographicCitation | Sarah, K. (2025). Inteligencia Artificial y elecciones: ¿Amenazas prematuras? En S. Grundberger, Dialogo Politico- Democracia artificial (pág. 6). Dialogo Politico. | es_ES |
| dcterms.bibliographicCitation | Sautu, R., Boniolo, P., Dalle , P., & Elbert, R. (2005). Manual de metodología: Construcción del marco teórico, formulación de los objetivos y elección de la metodología (Colección Campus Virtual). CLACSO. Buenos Aires: CLACSO. Obtenido de https://d1wqtxts1xzle7.cloudfront.net/35344895/Manual_de_metodologia_de_la_investigacin_CLACSO-libre.pdf?1414717754=&response-content-disposition=inline%3B+filename%3DManual_de_metodologia_Construccion_del_m.pdf&Expires=1751948582&Signature=F07lSNUEKa0VA5 | es_ES |
| dcterms.bibliographicCitation | Schmidhuber, J. (2024). ¿Qué puede hacer la inteligencia artificial por ti? BBVA- Aprendemos juntos 2030. Madrid: BBVA. Obtenido de https://aprendemosjuntos.bbva.com/especial/que-puede-hacer-la-inteligencia-artificial-por-ti-jurgen-schmidhuber/ | es_ES |
| dcterms.bibliographicCitation | Segunda, C. (2025). Proyecto de ley 436/2024- en la cual se regula el uso de armas autonomas letales en el sector de la defensa y la seguridad nacional y se dictan otras disposiciones. Bogota: Congreso de la Republica de Colombia. | es_ES |
| dcterms.bibliographicCitation | Singer, P. W. (5 de feb de 2009). Wired for War: The Robotics Revolution and Conflict in the 21st Century. (J. MYERS, Entrevistador) | es_ES |
| dcterms.bibliographicCitation | STM. (2024). KARGU. Turquia. Obtenido de https://www.stm.com.tr/uploads//docs/1719490681_tactical-mini-uav.pdf? | es_ES |
| dcterms.bibliographicCitation | Syse, H., & Cook, M. (2023). Robotic virtue, military ethics education, and the need for proper storytellers. 8(2), 667–680. https://doi.org/10.12681/cjp.35684: Conatus. | es_ES |
| dcterms.bibliographicCitation | Tovar, J., & Ostrosky, F. (2013). Mentes criminales. ¿Eligen el mal? Estudios de cómo se genera el juicio moral. (Universidad Nacional de Colombia, Facultad de Ciencias Humanas, Departamento de Filosofía. ed., Vol. LXVII Num 166). Cuidad de Mexico: Manual Moderno. Obtenido de https://biblioteca.ucuenca.edu.ec/digital/files/original/d0892eae54b0c63a1f0c4ac80d837be794354b41.pdf | es_ES |
| dcterms.bibliographicCitation | Unesco. (23 de Noviembre de 2022). Recomendación sobre la ética de la inteligencia artificial. | es_ES |
| dcterms.bibliographicCitation | United Nations. (8 de Marzo de 2021). Carta de fecha 8 de marzo de 2021 dirigida a la Presidencia del Consejo de Seguridad por el Grupo de Expertos sobre Libia establecido en virtud de la resolución 1973 (2011) . Resolution 1973 (2011). ONU. Obtenido de https://docs.un.org/es/S/2021/229 | es_ES |
| dcterms.bibliographicCitation | United Nations. (2023). A New Agenda. Our Common Agenda, (pág. 40). Obtenido de https://www.un.org/climatesecuritymechanism/sites/default/files/2025-06/our-common-agenda-policy-brief-new-agenda-for-peace-en_0.pdf | es_ES |
| dcterms.bibliographicCitation | Vallor, S. (2014). The future of military virtue: Autonomous systems and the moral deskilling of the military. Journal of Military Ethics: https://www.ccdcoe.org/uploads/2018/10/9_d2r1s10_vallor.pdf. | es_ES |
| dcterms.bibliographicCitation | Vallor, S. (2016). Technology and the virtues: A philosophical guide to a future worth wanting. Oxford University Press. | es_ES |
| dcterms.bibliographicCitation | Vea, J. (2022). Introducción a la guerra no cinética. revista de aeronáutica y astronáutica, 12. | es_ES |
| dcterms.bibliographicCitation | Vicent, I. (2023). Inteligencia Artificial. Universitat Oberta de Catalunya, 10. Obtenido de https://d1wqtxts1xzle7.cloudfront.net/107230295/Briva_Iglesias_Materiales_IA-libre.pdf?1699437754=&response-content-disposition=inline%3B+filename%3DInteligencia_artificial_IA.pdf&Expires=1743653053&Signature=B~jv5ZvAjuaPBO9GsFIlPy02Y31CVg~QfYh5EefYNMA8e6 | es_ES |
| dcterms.bibliographicCitation | Vivar, F., Gomez de Agreda , A., & Gomez , J. (2023). Taxonomia de la inteligencia artificial en el entorno cognitivo de los conflictos. Anuario Electrónico de Estudios en Comunicación Social “Disertaciones, 16(issn: 1856-9536), 3. doi:https://doi.org/10.12804/revistas.urosario.edu.co/disertaciones/a.12804 | es_ES |
| dcterms.bibliographicCitation | Waldron, J. (2021). Notes on “Threshold Deontology”. Obtenido de files.commons.gc.cuny.edu: https://files.commons.gc.cuny.edu/wp-content/blogs.dir/2793/files/2021/04/Waldron-Outline.pdf | es_ES |
| dcterms.bibliographicCitation | Winter. (2018). Autonomous weapons in humanitarian law: Understanding the technology, its compliance with the principle of proportionality and the role of utilitarianism. https://www.researchgate.net/publication/328962279: ResearchGate. | es_ES |
| dcterms.bibliographicCitation | Wündisch, J. (2014). Green Votes not Green Virtues: Effective Utilitarian Responses to Climate Change- Green Votes not Green Virtues. Cambridge: Cambridge University Press. | es_ES |
| datacite.rights | http://purl.org/coar/access_right/c_abf2 | es_ES |
| oaire.resourcetype | http://purl.org/coar/resource_type/c_3248 | es_ES |
| oaire.version | http://purl.org/coar/version/c_ab4af688f83e57aa | es_ES |
| dc.audience | Público general | es_ES |
| dc.contributor.tutor | Gómez Rodríguez, Giovanny Alberto | |
| dc.contributor.tutor | Torres Guarnizo, Mauricio Antonio | |
| dc.identifier.instname | Escuela Superior de Guerra "General Rafael Reyes Prieto" | es_ES |
| dc.identifier.reponame | Repositorio ESDEG | es_ES |
| dc.publisher.place | Bogotá | es_ES |
| dc.publisher.program | Maestría en Derechos Humanos y Derecho Internacional de los Conflictos Armados | es_ES |
| dc.rights.accessrights | info:eu-repo/semantics/openAccess | es_ES |
| dc.rights.cc | Attribution-NonCommercial-NoDerivatives 4.0 Internacional | * |
| dc.subject.keywords | Inteligencia artificial | es_ES |
| dc.subject.keywords | Riesgos éticos | es_ES |
| dc.subject.keywords | Utilitarismo | es_ES |
| dc.subject.keywords | Derecho Internacional Humanitario | es_ES |
| dc.subject.keywords | Autonomía letal | es_ES |
| dc.subject.keywords | Sesgos algorítmicos | es_ES |
| dc.subject.keywords | Artificial intelligence | es_ES |
| dc.subject.keywords | Ethical risks | es_ES |
| dc.subject.keywords | Utilitarianism | es_ES |
| dc.subject.keywords | International Humanitarian Law | es_ES |
| dc.subject.keywords | Lethal autonomy | es_ES |
| dc.subject.keywords | Algorithmic bias | es_ES |
| dc.type.driver | info:eu-repo/semantics/bookPart | es_ES |
| dc.type.hasversion | info:eu-repo/semantics/restrictedAccess | es_ES |
| dc.type.spa | Capítulo de Libro | es_ES |


