23 feb 2009

Robots militares necesitarán un código ético para la guerra

Un informe reveló que pueden autodeterminarse, por lo que es clave crear un mecanismo que evite la toma de decisiones no apropiadas.


LEO LEWIS
The Times

Los robots militares autónomos que combatirán en guerras del futuro tienen que ser programados para que funcionen de acuerdo a un estricto "código del guerrero" o el mundo corre el riesgo de atrocidades impensadas en sus manos de acero.

Esta severa advertencia aparece en un extenso informe financiado por la oficina de alta tecnología de Investigación Naval de la Armada de Estados Unidos.

El informe prevé una era que se aproxima velozmente donde los robots tendrán la inteligencia para tomar decisiones que actualmente pertenecen al ámbito de los humanos e incluso llegar a aventajarlos.

"Hay un concepto erróneo común de que los robots harán sólo lo que nosotros hemos programado que hagan", señaló Patrick Lin, principal autor del reporte. La realidad, explicó el Dr. Lin, es que los programas modernos incluyen millones de líneas de código y son escritos por equipos de programadores, donde ninguno conoce el programa completo. En consecuencia, nadie podría predecir con precisión cómo reaccionará el robot.

La solución, indica el experto, es mezclar la programación basada en reglas con un período de "aprendizaje" del bien y el mal en la guerra.

El documento abarca una rica variedad de tramas que esbozan los temas éticos, legales, sociales y políticos que se presentan a medida que mejora la tecnología robótica. ¿Cómo protegemos a nuestros ejércitos de robots de los hackers terroristas o un mal funcionamiento del software? ¿A quién culpar si un robot se excede en una multitud de civiles; al robot, a su programador o al Presidente de Estados Unidos? ¿Los robots deberían tener un "switch suicida"?

El informe, elaborado por el departamento de Ética y Tecnología Emergente de la Universidad Politécnica del Estado de California, que conoció el diario británico The Times, advierte a las Fuerzas Armadas de EE.UU. contra la complacencia en una "prisa por llegar al mercado".

"Sin un esfuerzo sostenido y significativo para incluir controles éticos en los sistemas autónomos hay pocas esperanzas de que las primeras generaciones sean adecuadas, cometiendo errores que tal vez cuesten vidas", observa el informe.

La sensación de prisa entre los diseñadores se puede haber intensificado debido a un mandato del Congreso que indica que para 2010, un tercio de los aviones operacionales de ataque en profundidad deben ser no tripulados, y que para 2015, un tercio de los vehículos de combate de tierra tienen que cumplir con el mismo requisito.

"Vamos a necesitar un código del guerrero", sostuvo el Dr. Lin. "Estas cosas son militares, y no pueden ser pacifistas, de modo que tenemos que pensar desde el punto de vista de una ética de campo de batalla".

EVOLUCIÓN

Con el tiempo, los robots podrían llegar a desarrollar ventajas cognitivas importantes por sobre los soldados humanos.


Foro de discución: http://achyotros.mforos.com/1626040/7816800-robots-militares-necesitaran-un-codigo-etico-para-la-guerra/

No hay comentarios: