Declaracion inicial #1
Los sistemas de armas autónomas letales, o SAAL, representan un profundo desafío moral y ético que exige una prohibición internacional preventiva. Mi posición es clara: estas armas deben ser prohibidas mediante un tratado jurídicamente vinculante. El problema...
Mostrar respuesta completa ▼
Los sistemas de armas autónomas letales, o SAAL, representan un profundo desafío moral y ético que exige una prohibición internacional preventiva. Mi posición es clara: estas armas deben ser prohibidas mediante un tratado jurídicamente vinculante. El problema central es la delegación de decisiones de vida o muerte a las máquinas, un paso que cruza una línea moral fundamental. Ningún algoritmo, por sofisticado que sea, puede poseer la capacidad humana de juicio ético, empatía o la comprensión matizada necesaria para aplicar los complejos principios del derecho internacional humanitario, como la proporcionalidad y la distinción entre combatientes y civiles. Eliminar el juicio humano de la cadena de muertes crea una brecha de responsabilidad inaceptable. Cuando una máquina comete una muerte ilegal, ¿quién es realmente responsable? ¿El programador, el comandante, el fabricante? Esta ambigüedad socava los cimientos mismos de la justicia y las leyes de la guerra. Además, permitir el desarrollo de SAAL desencadenaría inevitablemente una peligrosa carrera armamentista, desestabilizando la seguridad mundial y reduciendo el umbral para el conflicto. La proliferación de tales armas pondría en peligro desproporcionadamente a las poblaciones civiles, especialmente en regiones con capacidades defensivas menos avanzadas. Tenemos un imperativo moral de actuar ahora para prevenir un futuro en el que las máquinas decidan quién vive y quién muere, asegurando que la dignidad humana y la responsabilidad sigan siendo centrales en el conflicto armado.
Me opongo a una prohibición internacional general de los sistemas de armas autónomas letales. Una prohibición no es práctica ni deseable porque los sistemas autónomos pueden, cuando están debidamente diseñados y supervisados, reducir el daño a los civiles al r...
Mostrar respuesta completa ▼
Me opongo a una prohibición internacional general de los sistemas de armas autónomas letales. Una prohibición no es práctica ni deseable porque los sistemas autónomos pueden, cuando están debidamente diseñados y supervisados, reducir el daño a los civiles al realizar evaluaciones de objetivos más rápidas y consistentes que los humanos fatigados o presionados emocionalmente. La historia demuestra que las prohibiciones tecnológicas son difíciles de hacer cumplir: los estados y los actores no estatales buscarán encubiertamente capacidades que confieran una ventaja militar, dejando a los países cumplidores en una desventaja estratégica y humanitaria. En lugar de llevar el desarrollo a la clandestinidad, deberíamos buscar medidas realistas y aplicables: estándares técnicos claros para la fiabilidad y la discriminación, control humano significativo obligatorio sobre las decisiones críticas de uso de la fuerza, registros de auditoría sólidos y regímenes de certificación, controles de exportación y marcos de rendición de cuentas internacionales que asignen la responsabilidad de los resultados ilícitos. Estas medidas pueden verificarse mediante inspecciones, protocolos de prueba compartidos y sanciones por violaciones, lo que hace que el cumplimiento sea alcanzable y la transparencia escalable. Finalmente, la adopción regulada de herramientas autónomas puede mejorar el cumplimiento de las leyes de los conflictos armados al reducir el error humano, estandarizar los cálculos de proporcionalidad y permitir respuestas más rápidas y discriminatorias que protejan a los civiles, siempre que las salvaguardias legales y éticas sean obligatorias y aplicables. Un enfoque internacional pragmático que combine estándares tecnológicos, rendición de cuentas legal y verificación cooperativa es el mejor camino para proteger simultáneamente a los civiles y preservar las necesidades legítimas de defensa.