Una reflexión desde la ética utilitarista sobre el empleo del uso de los sistemas de Armas Autónomas Letales con Inteligencia Artificial, en el marco de DIH.
Abstract
La Inteligencia Artificial, como menciona Vicent (2023) es una tecnología disruptiva que puede llevar a cabo “tareas que habíamos relacionado con la inteligencia humana” (Vicent, 2023, pág. 10) es una tecnología que la humanidad nunca había conocido, puede tomar decisiones y generar nuevas ideas por sí misma, la IA no es una herramienta, es un agente y un medio. Cada vez, crece a la par de su desarrollo, crea preocupaciones por sus fallos y sesgos, así como por su evolución descontrolada, en el campo militar su empleo resulta tanto más polémico, puesto que la IA puede fallar al evaluar la información y generar recomendaciones, el uso de IA es contributivo para el desarrollo y uso de Sistemas de Armas Autónomas Letales (SAAL) las cuales pueden desarrollar operaciones con escasa o nula intervención humana mediante programación algorítmica capaz de actuar con mortalidad de manera autónoma. En este contexto, la reflexión ética acerca de la conveniencia e implicaciones de su empleo, así como el cumplimiento a las restricciones jurídicas del Derecho Internacional Humanitario, nos daría la viabilidad de optar por el uso de los SAAL. En el presente capitulo se defiende que, esta tecnología solo puede desarrollarse y en consecuencia valorarse éticamente en el marco del utilitarismo virtuoso; así como su aplicación y explotación de su máximo potencial, solo puede realizarse dentro del espectro de restricciones que impone el DIH. Artificial intelligence, as mentioned by Vicent (2023), is a disruptive technology capable of performing “tasks that we had associated with human intelligence” (Vicent, 2023, p. 10). It is a technology that humanity had not known until now, capable of making decisions and generating new ideas on its own. AI is not a tool, but an agent and a means. As it grows alongside its development, concerns arise about its failures and biases, as well as its uncontrolled evolution. In the military sphere, its use is even more controversial, as AI can fail when evaluating information and generating recommendations. The use of AI contributes to the development of lethal autonomous weapons (LAWs), which can carry out operations with little or no human intervention through algorithmic programming capable of acting autonomously with lethality. In this context, ethical reflection on the appropriateness and implications of its use, as well as compliance with the legal restrictions of international humanitarian law, would give us the viability to opt for the use of LAWS. This chapter argues that this technology can only be developed and, consequently, ethically evaluated within the framework of virtuous utilitarianism; similarly, its application and exploitation to its full potential can only be carried out within the spectrum of restrictions imposed by IHL.
Matters
Inteligencia artificialThe following license files are associated with this item:


