
Cuando pensamos en robots asesinos, es fácil imaginar escenas sacadas de películas de ciencia ficción. Sin embargo, la realidad es que estos sistemas de armas letales autónomas (LAWS, por sus siglas en inglés) ya existen y están siendo utilizados en conflictos armados. Su desarrollo y proliferación plantean graves desafíos éticos, legales y de derechos humanos, lo que exige una respuesta urgente de los Estados y la comunidad internacional.
¿Qué son los robots asesinos?
Los robots asesinos son sistemas de armas que pueden seleccionar y atacar objetivos sin intervención humana. A diferencia de los drones tradicionales, que requieren una orden de un operador humano para abrir fuego, estos sistemas cuentan con inteligencia artificial que les permite tomar decisiones autónomas sobre el uso de la fuerza.
Entre los ejemplos más conocidos se encuentran el Kargu-2 de Turquía, que presuntamente fue utilizado en Libia para atacar soldados en retirada, y los drones Bayraktar TB2 utilizados en Ucrania. Si bien en muchos casos se discute cuánto control humano tienen estos sistemas, la realidad es que la tecnología está avanzando rápidamente hacia una autonomía cada vez mayor.
¿Cómo funcionan y cuál es la diferencia con otros robots?
El elemento principal que distingue a los robots asesinos de otras tecnologías militares es su capacidad de operación autónoma. Esto se logra mediante:
- Inteligencia artificial y aprendizaje automático: Los algoritmos de IA entrenan a estos sistemas para reconocer objetivos, analizar el entorno y tomar decisiones sin supervisión humana directa.
- Sensores avanzados y reconocimiento facial: Algunos robots asesinos pueden identificar personas o grupos con base en características predefinidas, lo que puede facilitar ejecuciones extrajudiciales, crímenes de guerra e incurrir en muchos -muchísimos- sesgos.
- Capacidad de auto-navegación: Estos sistemas pueden operar en escenarios complejos sin necesidad de comunicación constante con una persona operadora, lo que los hace difíciles de controlar una vez desplegados.

A diferencia de otros sistemas automatizados en el ámbito civil o militar (como robots de rescate o drones de vigilancia), los robots asesinos están diseñados para la eliminación de objetivos humanos sin la mediación de un juicio o control humano significativo.
¿Por qué son un peligro?
A través de la campaña internacional Stop Killer Robots, personas expertas en derechos humanos y tecnología vienen advirtiendo sobre los riesgos que los robots asesinos representan para la estabilidad global y la seguridad de las personas ya que:
- Facilitan la violencia masiva: Al no depender de personas operadoras, pueden ejecutarse ataques sin la necesidad de grandes ejércitos, reduciendo las barreras para el conflicto armado.
- Pueden ser utilizados para represión y genocidio: Con tecnologías de reconocimiento facial, podrían ser programados para eliminar a poblaciones enteras con base en perfiles raciales, religiosos o políticos.
- Falta de responsabilidad: Si una máquina toma la decisión de matar, ¿quién es responsable? Esto desafía los principios fundamentales del derecho internacional humanitario.
- Riesgo de errores y fallas: Un error en la programación o en la interpretación de los datos podría llevar a ataques injustificados contra civiles.
¿Qué deben hacer los Estados?
Ante estos riesgos, organismos como la ONU y la campaña internacional Stop Killer Robots, de la que TEDIC forma parte, llamamos a la adopción de un tratado vinculante que prohíba o regule estrictamente las armas autónomas. Algunos países ya han manifestado su apoyo a una prohibición, pero las grandes potencias militares continúan resistiéndose. Desde Paraguay logramos el compromiso de la Diputada Johanna Ortega y del Diputado Raúl Benítez para esta campaña y lucha contra las armas autónomas.
Como miembros de la campaña recomendamos a los Estados a que:
- Promuevan un tratado internacional de prohibición o regulación para evitar la proliferación de estas armas.
- Implementen leyes nacionales que restrinjan el desarrollo, producción y exportación de LAWS.
- Fomenten el control humano sobre las decisiones de uso de la fuerza en los sistemas militares.
- Participen activamente en foros internacionales y respalden iniciativas como la Convención sobre Armas Convencionales (CCW) de la ONU.
Haciendo eco a estas recomendaciones, en diciembre de 2024, la Asamblea General de la ONU integrada por 193 Estados, aprobó la resolución A/RES/79/62 sobre sistemas de armas autónomos letales. Incluyendo a Paraguay, 166 países, votaron a favor de la Resolución 79/62 sobre sistemas de armas autónomas letales, mientras que 3 votaron en contra y 15 se abstuvieron. La resolución crea un nuevo foro bajo los auspicios de la ONU para debatir los graves desafíos y preocupaciones que plantean los sistemas de armas autónomas y las medidas que deben tomarse al respecto.
¿Por qué nos involucra también en Paraguay?
Muchas veces creemos que estos problemas son lejanos, propios de las grandes potencias. Sin embargo, en Paraguay venimos trabajando en incidencia sobre este tema desde 2020. En TEDIC, junto con otras organizaciones de la sociedad civil, promovimos un pronunciamiento para que el Estado paraguayo tome una postura clara en la regulación de estas armas.
El avance tecnológico no puede estar desvinculado de principios éticos y de derechos humanos. Los robots asesinos representan una amenaza real para la seguridad global y el respeto a la vida humana. La regulación de estas tecnologías es un desafío urgente y, aunque parezca un problema ajeno, es fundamental que Paraguay y otros países de la región se sumen a este esfuerzo.
Prohibir y regular estas armas es un paso para evitar la deshumanización de la guerra y la violencia. Desde TEDIC continuaremos promoviendo el debate y la acción para frenar el avance de estas armas antes de que sea demasiado tarde.