sábado, 15 de enero de 2011

DARPA SE VUELVE CADA VEZ MÁS TENEBROSA

Existen dos razones irresistiblemente seductoras para incluír y dar cada vez más protagonismo a robots-soldados y a la inteligencia artificial en actividades militares ( que de hecho ya han alterado y subvertido muchas reglas morales en la naturaleza de la guerra ) : los seres humanos toman menos riesgo de combate y los costos se bajan espectacularmente.
Militares estadounidenses reconocen que de no ser por la presencia y participación de aviones no tripulados entre sus fuerzas de combate, es muy probable que ya habrían abandonado casi todos los países que actualmente mantienen invadidos.
En Irak y Afganistán, las tropas de EE.UU. están operando ya remotamente por tierra y aire unos 20.000 robots.
La CIA desliza regularmente aviones no tripulados en Pakistán para destruir presuntos miembros de Al Qaeda y otros objetivos.
El Congreso ha pedido que al menos un tercio de todos los vehículos militares terrestres en combate sean no tripulados para el año 2015, y la Fuerza Aérea cuenta ya con mayor número de operadores de vehículos aéreos no tripulados que pilotos de combate y y de bombarderos juntos.
Los fabricantes de estas máquinas de guerra que ya superan en muchos aspectos en rendimiento a los humanos y que incluso en algunas naves toman automáticamente el control de la misma si el piloto muestra señales de desorientación, dicen que las mismas están capacitadas para actuar en combate incluso más éticamente que las personas, ya que no buscan venganza ni sienten el deseo de protegerse, no sufren stress y nunca se dejan influenciar por el miedo o la histeria.“Son más fuertes e inteligentes” dijo uno de ellos durante un juicio que se le seguía a cinco soldados acusados de matanza y mutilación de civiles . "¿Por qué no van a ser más humanos?”
En agosto pasado, operadores de la Marina de EE.UU. perdieron todo control sobre un helicóptero-robot no tripulado que volaba sobre Fire Scout Maryland, el cual había sido programado para regresar a su punto de lanzamiento.
La máquina desobedeció y puso rumbo por su cuenta a la capital del país , así que los militares debieron dar la alerta a la Administración Federal de Aviación de América del Norte y el Comando de Defensa Aeroespacial y preparar cazas F-16 para interceptar la nave rebelde.
Cuando el robot se encontraba ya a muy pocos kilómetros de la Casa Blanca, la Armada logró recuperar el control y ordenarle que volviera a casa. El robot renegado estaba desarmado y no tenía capacidad de fuego.En 1988, un robot de la Armada que patrullaba el Golfo Pérsico, derribó un avión de pasajeros iraní, matando a los 290 pasajeros a bordo, cuando su sistema de radar automatizado confundió el avión con uno de combate
Hay muchas situaciones que recuerdan a aquella famosa escena de Robocoop: en 2007, cuando el primer lote de robots armados fue desplegado en Irak, lo primero que hicieron una vez encendidos fue apuntar sus armas a las fuerzas amigas.Por suerte fueron desactivados antes de que dispararan.No tuvieron tanta suerte los tripulantes de un helicóptero que fue derribado por un robot C-RAM que creyó que se trataba de un misil lanzado en su contra. Lo más inquietante es que nunca se pudo aclarar la razón de la falla.
Equipos de drones de la CIA no pudieron discriminar entre combatientes y no combatientes y asesinaron más de 1.000 civiles paquistaníes.Soldados apostados en Irak dan testimonio de unidades que comienzan a retroceder en lugar de avanzar, o dar vueltas locamente.
En 2007, en un entrenamiento en el Sur de África un cañón automático antiaéreo comenzó a girar violentamente, disparando todos sus 500 cartuchos de carga automática contra los soldados de su propio ejército. Nueve soldados murieron y 14 resultaron gravemente heridos.
Además de Estados Unidos, cuarenta y tres países más, incluídos China e Irán, tienen o están desarrollando sus propios robots militares.
Se habla y se escribe en convenciones internacionales sobre regular los sistemas robotizados o prohibir los soldados robots autónomos, pero la realidad tomará una vez más el camino opuesto, y legal o ilegalmente, abierta o solapadamente, estas máquinas estarán en el campo de batalla apenas estén listas para hacerlo.
La razón inicial del desarrollo de esta tecnología es avanzar en objetivos militares, pero pronto los objetivos se transforman para adaptarse a la tecnología y las máquinas porque éstas se vuelven indispensables y de alli hay sólo un paso hasta la creación de poderosos sistemas militares que asuman funciones claves que deberían llevarse a cabo siempre exclusivamente por seres humanosEl avance en darle a las máquinas más poder de fuego, inteligencia y autonomía avanza en proporción geométrica, mientras los proyectos para mantener el control de esas máquinas van rumbo al fracaso ya que una máquina inteligente debería tener un sistema de control igualmente inteligente, y la velocidad con que se crean jamás puede ser alcanzada por una verificación acorde.
Otro problema es que las pruebas de estas máquinas en casi todos los casos no se hacen sobre la realidad porque son métodos carísimos y muy complejos para organizar, así que se los prueba a través de simulaciones de software, es decir, la máquina aprende a obedecer instrucciones de otra máquina, pero nadie sabe cómo reaccionarán en misiones en el mundo real.

En DARPA están desarrollando el programa MSEE ( Matemáticas para la Detección Exploración y Ejecución ) que tiene el objetivo de crear un nuevo lenguaje algorítmico matemático unificado que enseñe a los sensores a pensar, aprender e interpretar, es decir, que no sólo recojan datos sinó que aprendan a interpretarlos y actúen autónomamente en consecuencia.
La intención es que esta “derivación” ( que aseguran estará lista para el 2014 ) pueda liberar a los analistas humanos del enorme volumen diario de información rutinaria, como llamadas interceptadas, posicionamiento de radares o vuelos de reconocimiento, y les permita dedicarse exclusivamente a “lo importante”.
CREEPY!!
Para eso DARPA cree que es imprescindible el desarrollo de un algoritmo matemático que enseñe a las máquinas cómo crear orden fuera del caos del mundo que les rodea, y utilizar esa ontología para desarrollar una capacidad de aprendizaje que le permita filtrar el mundo a través de su propio prisma de percepción, anticipando lo que el analista tiene que saber.
La interacción humana en este aprendizaje debe ser limitada: los sensores deben aprender sin supervisión o bajo una muy light.
DARPA opina que “un prototipo MSEE tiene que tomar determinaciones a partir de las imágenes y el video, sobre si intercepta o inicia el seguimiento de un blanco en movimiento”
De concretarse, se habrá capacitado con un nuevo tipo de inteligencia artificial a máquinas utilizadas para rastrear personas y armas mortales de guerra. Ya se ha diseñado además una marca (Cylon) que puede reconocer a otros sensores como sus semejantes.
Darpa por supuesto no se aventura en terrenos filosóficos o intelectuales, como por ejemplo cómo vé la realidad un sensor, y obviamente mantiene una alegre inconciencia sobre lo que su trabajo está iniciando.
Deberían tomarse un día libre e ir al cine en grupo para ver la saga completa de Terminator.. Arnold!!como político influyente, a ver si le explicas a estos muchachos!!

No hay comentarios:

Publicar un comentario