Más de 160 países se han reunido en las Naciones Unidas para negociar un tratado que prohíba el desarrollo y uso de robots asesinos, también conocidos como “sistemas de armas autónomas letales.” Estos robots pueden seleccionar y atacar objetivos sin intervención humana. El debate en torno a esta tecnología ha generado preocupaciones por sus implicaciones éticas y de seguridad.
Preocupaciones en torno a los robots asesinos
Los defensores del tratado argumentan que permitir que las máquinas tomen decisiones sobre la vida o la muerte es inmoral y peligroso. Temen que la falta de supervisión humana pueda resultar en consecuencias desastrosas. Algunas organizaciones de derechos humanos también han señalado que estos sistemas podrían ser utilizados por regímenes opresivos para reprimir a su población sin dejar rastro.
“La comunidad internacional tiene la responsabilidad de prevenir el desarrollo de tecnología que pueda llevar a violaciones de los derechos humanos y a conflictos incontrolables”, expresó un representante de una organización de derechos humanos.
Sin embargo, algunos países que ya han invertido en esta tecnología se muestran escépticos respecto a cualquier prohibición. Argumentan que una decisión prematura podría limitar el avance tecnológico y la capacidad de defensa frente a amenazas emergentes.
Estadísticas recientes destacan la preocupación sobre los robots asesinos:
- Más de 60 organizaciones internacionales han pedido la prohibición de estas armas.
- 75% de la población mundial apoya la regulación de esta tecnología.
- El 92% de los expertos en IA están preocupados por el mal uso de la inteligencia artificial en contextos bélicos.
Las negociaciones en la ONU continuarán en las próximas semanas, mientras los países intentan llegar a un consenso sobre cómo abordar los desafíos que representan los robots asesinos.