por Guillermo Altares
La ONU estudia el uso bélico de los robots. Los científicos alertan del peligro de dejar que las máquinas decidan matar.
¿Se puede dar la licencia para matar a una máquina? ¿Hay alguna forma de
que los robots respeten las leyes de la guerra, la Convención de
Ginebra? Estas preguntas han llegado a Naciones Unidas,
porque han dejado de ser hipótesis de trabajo o planteamientos de
ciencia-ficción para convertirse en un dilema real, ante el que las
principales potencias militares del mundo deberán pronunciarse.
elpais.com/Vehículo militar autónomo conocido como Chrusher (Aplastador). / A.P.
Actualmente al menos media docena de países mantienen abiertos programas
de armas con capacidad de actuar de forma autónoma (aunque todavía no
de matar), los llamados robots asesinos (Killer Robots), armas autónomas
letales en la terminología de la ONU.
Por segunda vez, este organismo
internacional tratará el tema en Ginebra dentro de la Convención de
Armas Convencionales (CCW, en sus siglas en inglés) en noviembre. "El
asunto está en Naciones Unidas porque la comunidad internacional se ha
dado cuenta de que no se trata de una nueva arma: esto cambia la
guerra", asegura Steve Goose, responsable de la división de armamento de
Human Rights Watch.
"Todavía no existen robots asesinos; pero sí la tecnología", afirma Noel Sharkey, profesor de Inteligencia Artificial en la Universidad de Sheffield
(Inglaterra), que lleva desde hace siete años dedicado a poner el
asunto en la agenda internacional y que encabeza una campaña de 52
organizaciones llamada Stop Killer Robots en la que están desde la International Human Rights Clinic
de la Universidad de Harvard hasta HRW o Amnistía Internacional.
"El
debate es sobre lo lejos que podemos llegar: nuestro objetivo es que se
prohíba la delegación de matar, que no se pueda dejar esa decisión en
manos de una máquina", prosigue el profesor Sharkey. El uso militar de
los robots también tiene defensores, que anticipan un futuro en el que se maten los robots y no las personas.
El temor a que los robots se conviertan en asesinos ha sido siempre una pesadilla de la ciencia-ficción con películas como Terminator o Robocop. De hecho, Isaac Asimov formuló en 1942 en su relato Círculo vicioso las famosas tres leyes de la robótica,
destinadas a garantizar que, por acción o por omisión, siguiendo
órdenes o no, un robot no pueda herir a un ser humano. Pero el futuro ya
está aquí o, por lo menos, muy cerca (curiosamente el relato de Asimov
transcurre en 2015).
elpais.com/Robot militar fabricado por Boston Dynamics.
"Hemos llegado muy lejos en la capacidad de autonomía, aunque se
necesita una inteligencia artificial muy sofisticada de la que todavía
estamos lejos. Algunos científicos creen que faltan unos 10 años",
asegura Steve Goose, de HRW. Angela Kane, la Alta Representante de la
ONU para el Desarme, señaló recientemente: "Cualquier arma de guerra es
terrible y si la puedes activar sin intervención humana, mucho más. Cada
vez se habla más de la creciente automatización de la guerra y estamos
muy cerca de que existan armas totalmente automatizadas".
Desde la I Guerra Mundial, donde se utilizaron por primera vez
ametralladoras, tanques y aviones de forma masiva, incluso antes, ya que
muchos historiadores militares creen que Roma conquistó el mundo
conocido gracias a que sus armas eran mucho mejores que las de los
demás, la tecnología ha formado parte de la guerra y la automatización
es un desarrollo lógico. Noel Sharkey explica que ya se utiliza en los
sistemas para interceptar misiles, como el escudo israelí Cúpula de Hierro,
cuya eficacia se debe en parte a su automatismo (una máquina siempre
será mucho más rápida que un ser humano). Los drones también han
representado una revolución tecnológica, ya que aviones tripulados a
distancia, desde miles de kilómetros en algunos casos, se han convertido
en clave en los enfrentamientos bélicos actuales. Pero en todos los
casos, seres humanos, militares profesionales casi siempre, son los que
toman la decisión clave: disparar.
Actualmente, numerosos países desarrollan programas, algunos bastante
avanzados, de robots militares con alta capacidad de autonomía.
El x47-B, promovido por el Northrop Grumman dentro del Programa de
Sistemas de Combate no Tripulados (UCAS) de la Armada de Estados Unidos,
puede aterrizar y despegar solo (sin ningún tipo de control a
distancia) en un portaaviones. Reino Unido ha probado este verano un
aparato similar en Australia. China está desarrollando el Anjian (Espada
Negra), otro avión autónomo. En tierra, la Agencia de Investigación de
Proyectos Avanzados de Defensa (DARPA) ha desarrollado un vehículo
blindado autónomo, de siete toneladas, que tiene el poco tranquilizador
nombre de Crusher (Aplastador). Israel ha creado el Guardium, que puede
patrullar solo y lleva armas, aunque la decisión de disparar es siempre
humana. Corea del Sur tiene el Samsung SGR-1, que patrulla la frontera
con Corea del Norte y está trabajando en sistemas para coordinar robots y
humanos en el campo de batalla.
Y no se trata solo de robots pensados para combatir. Noel Sharkey
describe máquinas autónomas diseñadas para disparar gas pimienta y
pelotas de goma contra los manifestantes. A finales de 2013, Google
compró Boston Dynamics, la octava compañía de robots que el gigante de
Internet ha adquirido en los últimos dos años. Pero esta es diferente:
no venden al público sino que se dedican a investigar para el Pentágono.
Sus principales logros se llaman BigDog (Gran Perro) y WildCat (Gato Salvaje), dos aparatos capaces de moverse en terrenos escarpados.
© deviantart.com/Guerra de robots: un 'escenario posible' para EE.UU. en 2025.
Guerra de robots: un 'escenario posible' para EE.UU. en 2025
Texto completo en: http://actualidad.rt.com/actualidad/view/52240-guerra-robots-escenario-posible-eeuu-2025
Texto completo en: http://actualidad.rt.com/actualidad/view/52240-guerra-robots-escenario-posible-eeuu-2025
Ninguno de estos dos modelos ha sido probado, que se sepa, en combate
real. Como ha escrito Huw Williams, el experto en sistemas no
tripulados de la revista militar Jane’s,
"ni siquiera los programas más avanzados de robots asesinos han logrado
máquinas que puedan actuar por sí solas". "La autonomía es, por ahora,
bastante limitada. Pueden ir de un lugar a otro siguiendo unos
parámetros, eso sí, pero, en términos de pensamiento, no estamos todavía
ahí", agregó.
El objetivo de la campaña Stop Killers Robots es que nunca se lleguen
a desarrollar armas con capacidad para decidir matar o no matar por sí
solas, como nunca se llegaron a desarrollar los láseres cegadores,
prohibidos antes de su creación. Esto es lo que se debatirá en la ONU el
13 y 14 de noviembre, aunque todavía la comunidad internacional está
muy lejos de llegar a un acuerdo. Los robots militares tienen algunos
defensores, que consideran que si se utilizasen correctamente podrían
reducir las bajas y, sobre todo, no es sencillo que los países renuncien
a poderosos programas militares que otros también tienen en marcha.
Sin
embargo, la inmensa mayoría de la comunidad científica considera que
representan un peligro, no la capacidad de autonomía en sí, pero sí la
delegación de la decisión de matar. Por no hablar de que es imposible
que una máquina pueda ser responsable ante la Convención de Ginebra.
"La guerra sin reflexión es una matanza mecánica", aseguró Christof
Heyns, el Alto Representante de la ONU para las ejecuciones
extrajudiciales, arbitrarias y sumarias cuando este tema se trató por
primera vez en Naciones Unidas, el pasado mayo. "De la misma forma que
acabar con cualquier vida humana merece una cierta deliberación, la
decisión de permitir a máquinas matar merece, por lo menos, una
reflexión colectiva internacional".
Fuente: elpais.com/internacional/2014
Información:
P.W. Singer sobre robots militares y el futuro de la guerra. TED 2009 Español Sub
En esta poderosa charla, P.W. Singer demuestra como el uso generalizado
de robots en la guerra está cambiando las realidades del combate. El nos
muestra escenarios salidos de la ciencia ficción - que tal vez no sean
tan ficticios.
Conferencia filmada en Febrero del 2009 en Longbeach, California
Traducido al español por Miguel Alcivar
http://www.ted.com/profiles/translati...
Para descargar con subtitulos en Español: http://bit.ly/WiOpO4
Conferencia filmada en Febrero del 2009 en Longbeach, California
Traducido al español por Miguel Alcivar
http://www.ted.com/profiles/translati...
Para descargar con subtitulos en Español: http://bit.ly/WiOpO4
Actualizado el 15/1/2012 por Ideas que vale la pena difundir
No hay comentarios:
Publicar un comentario
Nota: solo los miembros de este blog pueden publicar comentarios.