Autor:

El país que más guerras ha promovido en los últimos años desarrolla nuevos modelos de robots que serán utilizados en conflictos armados. Las máquinas “toman decisiones”, sin intervención humana, para eliminar objetivos. El posible costo en vidas inocentes es incalculable. El empleo de estas sofisticadas armas, fuera del derecho internacional humanitario

 
Silvio González/Prensa Latina
 
Los diversos ejercicios militares estadunidenses con sistemas de naves no tripuladas presagian la forma futura en que ese país conducirá sus guerras infinitas.
 
Cuando estos robots localicen, identifiquen y eliminen a sus objetivos basados solamente en cálculos realizados por un sofisticado programa informático que los dirige sin que medien humanos, se convertirán en agresivos gendarmes asesinos.
 
En la base militar de Fort Benning, a inicios de octubre despegaron experimentalmente dos de estos artefactos y vigilaron todo el perímetro en busca de un blanco ubicado en tierra con los colores naranja, verde y azul, según apunta el periodista Peter Finn.
 
Los objetos voladores que operaban en este ejercicio secreto sin ningún tipo de comando humano, cuando localizaron al objetivo en tierra, contactaron a un auto no tripulado en las cercanías del mismo para que confirmara su posición satelital. Una vez cumplido este requisito y recibida la confirmación del otro robot, las naves lanzaron sus misiles sin analizar el posible margen de error que por algún imponderable pudiera ocurrir.
 
Charles E Pippin, científico en el Instituto de Investigaciones de Georgia explicó que cualquiera puede imaginarse distintos escenarios en tiempo real cuando varios de estos aparatos vuelen simultáneamente y tomen decisiones sin que sean aprobadas por seres humanos.
 
El complejo militar industrial estadunidense financia varios proyectos de investigaciones de máquinas que desempeñarán tareas peligrosas o engorrosas en el campo de batalla para evitar riesgos a los combatientes.
El asesinato de insurgentes es monitoreado por oficiales que están en bases secretas a miles de kilómetros de distancia y las nuevas tecnologías hacen que la guerra sea considerada muy “antiséptica”, dado que se reduce el margen de sufrir daños y bajas.
 
El hecho de que máquinas automatizadas puedan percibir, razonar y actuar por su libre albedrío impone un serio reto al derecho humanitario internacional, señala el diario The Washington Post.
 
La Convención de Ginebra especifica claramente que las partes beligerantes previamente deben identificar antes de atacar y determinar con la mayor precisión posible si las personas son combatientes, personal médico o inocentes civiles.
 
“El despliegue de sistemas militares de este tipo refleja un cambio radical a las reglas existentes para conducir las hostilidades”, declara Jakob Kellenberger, presidente del Comité Internacional de la Cruz Roja. Puntualiza que esto crea dificultades legales, éticas y sociales que deben ser consideradas antes de utilizar masivamente estos sistemas ofensivos.
 
Todo indica que en el futuro cercano los robots realizarán patrullajes de reconocimiento o cumplirán tareas como transportes de carga pesada, mientras que otros podrán efectuar tareas de prestación de primeros auxilios a los heridos.
 
 
En Berlín, Alemania, se creó un grupo de activistas denominado Comité para el Control de los Armamentos Robotizados que plantean que estas nuevas tecnologías pueden tentar a los gobernantes a desarrollar guerras a partir de un mínimo de bajas y que debe existir un tratado internacional que norme la utilización de estas armas. Otros expertos esbozan que un grupo de hackers rebeldes podrían entrar ilegalmente en estos sistemas secretos y tornarlos contra sus creadores.
 
Peter Asaro, profesor en la Universidad de New York, manifiesta que estas técnicas entran en operaciones demasiado rápido y por eso cometen muchos errores, que pueden llegar a convertirse en verdaderas atrocidades. “El hecho de autorizar un aparato a que tome decisiones combativas letales crea un problema legal y ético para Estados Unidos, ya que hay que precisar cuándo deben ser utilizadas, de quién será la responsabilidad final por los errores y las limitaciones que deben tener”, destaca el rotativo The Washington Post.
 
Johann Borenstein, director del Laboratorio de Robótica en la Universidad de Michigan, dice que el problema es que “en el campo de batalla es necesario tener sentido común y estos aparatos no lo tienen ni lo tendrán en los próximos 50 años”.