Los Drones Inteligentes del Futuro
Los drones inteligentes están dando forma al futuro de la guerra
Los drones inteligentes bélicos ahora son enjambres autónomos con bombas de racimo de alta tecnología, Lo último en tecnología Dron ha llegado para quedarse, y cambiará la forma en la que veremos los conflictos armados.
Los drones como el Perdix, recorren grandes distancias desde sus orígenes como herramientas de vigilancia.
Estos drones atacan desde el cielo, como una colonia de murciélagos hambrientos en la noche. Pueden lanzarse de 100 en 100 desde el vientre de aviones de combate Boeing F /A-18 SUPER HORNET. Rodean su objetivo, y el zumbido mecánico de su vuelo suena como un grito de guerra.
Así fue la prueba de enjambre de microdrones más grande del mundo. La demostración fue realizada por la Oficina de Capacidades Estratégicas del Departamento de Defensa y el Comando de Sistemas Aéreos de la Marina. La prueba fue el último paso en lo que podría denominarse un ataque de drones de guerra en enjambres.
Ahora un poco de historia
Los aviones comienzan realizando largos vuelos de vigilancia. El 4 de febrero de 2002, en la provincia de Paktia, Afganistán, cerca de la ciudad de Khost, la CIA usó un avión no tripulado Predator en un ataque por primera vez . El objetivo era Osama bin Laden. Aunque resultó que no estaba allí, el Dron eliminó a tres terroristas. La CIA había usado drones para vigilancia antes, pero no en operaciones militares, y no para matar. Lo que una vez había sido simplemente una cámara voladora en el cielo ahora estaba armada.
En los años siguientes, la administración Bush autorizó 50 ataques con drones, mientras que la administración Obama expandió en gran medida el programa, autorizando 506 ataques durante su mandato. Estos fueron casi exclusivamente drones Predator y Reaper, pilotados por un humano a cientos de kilómetros de distancias en bases militares estadounidenses, interactuando con sistemas que se asemejaban más a jugar a un videojuego que a volar en un combate.
A medida que entramos en la era de Trump, la dependencia de los militares en la guerra de drones sigue su rumbo. El fin de semana en que el presidente Trump asumió el cargo, se llevaron a cabo tres ataques autorizados con aviones no tripulados estadounidenses en Yemen, dirigidos contra presuntos miembros de al-Qaeda. Treinta personas fueron asesinadas, incluidas 10 mujeres y niños. Uno de los niños asesinados fue la hija de ocho años de Anwar Awlaki, el imán estadounidense que se unió a Al Qaeda en Yemen y que fue asesinado por un Dron estadounidense en 2011.
Desde los primeros ataques, los militares continuaron expandiendo las capacidades de los drones integrándolos en sus operaciones, y los drones en enjambre representan un avance significativo en este sentido. Un solo dron Predator o Reaper generalmente tendría varias personas involucradas en su vuelo y en el proceso de toma de decisiones. Estos drones no solo requieren personal de mantenimiento para repararlos, sino que cada dron necesita un piloto humano en el suelo para volarlo. Los drones Perdix, por otro lado, se comunican autónomamente entre sí y usan la toma de decisiones colectiva para coordinar movimientos, encontrar la mejor manera de llegar a un objetivo, incluso volando en formación ellos mismos, todo sin que un humano les diga cómo. Una sola persona les da las instrucciones, por ejemplo, «ira al hospital local» o «rodear la camioneta azul».
¿Se va a ir demasiado lejos a la hora de desarrollar esta tecnología?
No solo los investigadores del SCO y la Marina, o China están buscando expandir el uso de la tecnología de drones en enjambre. El pasado mes, la Fuerza Aérea publicó su plan de vuelo para pequeños dispositivos aéreos no tripulados para los próximos 20 años, describiendo cómo comenzarían a integrar drones y encontrar más formas de utilizarlos en sus proyectos existentes. Los militares también están explorando formas de integrar esta tecnología en las fuerzas militares convencionales, como por ejemplo, en camiones de suministros que cruzan el desierto o en las embarcaciones que patrullan una costa extranjera. En 2014, la Marina probó con éxito en sus embarcaciones enjambre de drones autónomos, cuya tecnología les permitió no solo proteger a los buques de la Armada, sino también, realizar ofensivas, (enjaular) autónomamente a buques hostiles. En un momento durante la prueba, hasta 13 barcos operaron de manera autónoma y coordinaron sus movimientos, todo sin que un solo marinero estuviera en los controles.
A medida que siguen estos desarrollos tecnológicos, hay una pregunta que persiste sobre todos: ¿cómo deberíamos gobernar las armas autónomas del futuro? ¿Iríamos demasiado lejos a la hora de desarrollar tecnología que pueda tomar decisiones de vida o muerte? En una carta pública en 2015 sobre armas autónomas del Future of Life Institute, investigadores de inteligencia artificial y robótica como Elon Musk y Stephen Hawking advirtieron que, con estas tecnologías, «lo que está en juego es de alto riesgo: las armas autónomas han sido descritas como la tercera revolución en la guerra, después de la pólvora y las armas nucleares».
El intento de los Estados Unidos de establecer límites al desarrollo de las armas autónomas se centra en la Directiva 3000.09, que rige las políticas del Departamento de Defensa relativas a las armas letales autónomas. La directiva militar, que se promulgó en 2012, en esencia da luz verde a algunos proyectos autónomos, al tiempo que determina que otros proyectos deben pasar por un extenso proceso de prueba y revisión. Si bien podría ser conveniente imaginar que este código insta a Estados Unidos a que nunca permitiría que la tecnología autónoma tomara una decisión de vida o muerte sin un ser humano involucrado, ese no es el caso, según Paul Scharre, investigador principal y director del futuro de Warfare Initiative para una Nueva Seguridad Estadounidense.
«A menudo se simboliza públicamente de esta manera, pero probablemente sea una mala lectura» dice Scharre, quien explica que la directiva establece pautas para los desarrolladores de tecnología, pero no prohíbe nada. Lo hace, dice, para alentar procesos de revisión, y sin temor. Por lo tanto proporcionan pautas para permitir que los desarrolladores creativos crucen la línea. Aunque no prohíben a los desarrolladores crear sistemas de armas autónomas, si establecen regulaciones sobre lo que debe someterse a exhaustivas pruebas y verificaciones.
No Existe Consenso Internacional sobre la Tecnología Autónoma
La Directiva 3000.09 expirará a finales de este año, aunque su límite de cinco años se agote. Depende de Donald Trump decidir si EE.UU continúa con su postura actual o si abandona las directrices que establece la directiva. Los primeros resultados son preocupantes. La obsesión de Trump con los militares, su propuesta de aumentar el presupuesto del Departamento de Defensa a expensas de otras agencias federales y u enfoque errático a todo, desde armas nucleares hasta la OTAN no apuntan a un enfoque matizado de los letales sistemas de armas autónomas y su gobernanza. En todo caso, su énfasis en «ganar», independientemente del costo, podrían empujarlo a abrazar un enfoque más abierto al desarrollo y uso de estas armas.
Países como China y Rusia continúan avanzado en el desarrollo de drones y sistemas autónomos, por temor a quedarse atrás. Y la mayoría de los países que participan activamente en la investigación y el desarrollo de estos sistemas no han formulado políticas o doctrinas militares a la Directiva 3000.09. De hecho, no existe un consenso internacional que gobierne cómo la tecnología autónoma puede desarrollarse o militalizarse. Si Trump abandona la Directiva 3000.09, solo aumentara el vacío legal.
El profesor James Rogers, profesor asociado en la Universidad de York y autor del próximo libro Precisión: una historia de guerra estadounidense, no está seguro de que estemos preparados para enfrentar este futuro. «¡Qué sucede cuando alguien muere, y es una máquina autónoma que se equivocó y los mató. ¿Quién es responsable de eso?». «Si la codificación es incorrecta, ¿es responsable el programador? Es una tarea difícil. No es una cadena de responsabilidad que en ese momento puedas seguir y ese es el problema».
«En mi opinión, la próxima generación de un dron enjambre es un dron de bomba de racimo» dice Rogers. Las bombas de racimo son municiones que contienen submuniciones explosivas múltiples o cúmules, y se arrojan desde aviones o se disparan desde el suelo o el mar, antes de abrirse en el aire para liberar decenas o cientos de cúmulos que explotan al impactar. Rogers dice que las capacidades de esto serían devastadoras, permitiendo ataques simultáneos de precisión de objetivos. Excepto en lugar de clones normales, que simplemente caen, estos drones navegarían a un objetivo específico una vez que se liberen.
Tal como lo describe Rogers, estos «drones de grupo» podrían unirse en el aire de forma autónoma una vez que se dispersen desde el caparazón de la bomba de racimo para maximizar su carga útil, o podrían dispersarse inmediatamente para separar los objetivos preestablecidos. «Cada dron tiene una cantidad definitiva de explosivo adherido», dice. «Entonces, una vez que la bomba de racimo cae, estos drones salen en tropel de ella, encuentras su objetivo específico, lo golpean y explotan».
Las municiones latentes con un patrón de espera
Rogers, el profesor de la Universidad de York, trae a colación un incidente en octubre pasado, cuando el personal militar kurdo y francés intentó devolver un dron ISIS a su base para deconstruirlo, solo para que explotara en el camino. «Lo tomaron con la intención de desarmarlo para analizar la tecnología y, casi como un caballo de Troya, el dron explotó», dice. «El objetivo de todo fue que era una trampa explosiva». La explosión mató a dos combatientes kurdos e hirió a dos miembros de las Fuerzas Especiales francesas.
Los países y los actores no estatales van a tomar posesión de un mayor número de drones armados, y comenzarán a dar forma al campo de batalla de formas nuevas y peligrosas. Desde drones de bombas de racimo, hasta drones kamikaze ¿está el mundo preparado, o incluso capaz, de enfrentar las amenazas de drones como estos, a medida que la tecnología autónoma (inteligente) se desarrolla e integra con ellos?