El ejército de EEUU explica sus planes para un robot asesino

ActualidadEEUU

El ejército de EEUU se ha visto obligado a clarificar sus intenciones de crear robots asesinos después de que se revelara un nuevo programa para crear sistemas de selección de objetivos basados en inteligencia artificial.

La controversia envuelve el Advanced Targeting and Lethality Automated System (ATLAS). Creado por el Departamento de Defensa, se trata de un programa que pretende desarrollar:

Una tecnología de adquisición de objetivos autónoma, que estaría integrada con la tecnología de control de fuego, cuya misión sería proveer a los vehículos de combate terrestres con la capacidad de adquirir, identificar y ocuparse de objetivos tres veces más rápido que con el proceso manual actual.

El texto viene del ejército de EEUU, que ha anunciado un día del sector que tendrá lugar la próxima semana para informar a la industria y al mundo académico de sus progresos hasta el momento y para obtener nuevos conocimientos.

Resumiendo, ATLAS es un proyecto para fabricar robots terrestres que sean capaces de encontrar y disparar a objetivos más rápido de lo que puedan hacer las personas. Esto aumenta el espectro de la inteligencia artificial letal una vez más.

Expertos en ética y científicos ya están debatiendo acaloradamente este tema. Unos 2.400 científicos y otros expertos en inteligencia artificial, incluidos Elon Musk y el CEO de DeepMind Demis Hassabis, firmaron un manifiesto protestando con el desarrollo de inteligencia artificial letal.

La ONU todavía no ha tomado ninguna decisión, pero su secretario general António Guterres ha pedido una prohibición completa.

El ejército claramente se da cuenta de lo controvertido que es el proyecto, porque actualizó el documento sobre el día de la industria para incluir:

Todo el desarrollo y uso de funciones autónomas y semiautónomas en sistemas armamentísticos, incluyendo plataformas tripuladas o no, están sujetas a las directiva del Departamento de Defensa (DoD) 3000.09, que fue actualizada en 2017.

Nada en este documento debería ser interpretado como un cambio en esa directiva hacia un cambio en los sistemas armamentísticos. Todos los usos de machine learning e inteligencia artificial en este proyecto serán evaluados para asegurar que están dentro de los estándares éticos y legales del DoD.

La directiva 3000.9 es un documento del DoD del 2012 en el que se perfila las políticas asociadas con el desarrollo de armas autónomas. Dice:

Los sistemas semiautomáticos armamentísticos que están a bordo o integrados en plataformas no tripuladas deben ser diseñados de manera que, en caso de que se degraden o pierdan las comunicaciones, el sistema no realice selección y toma autónoma de objetivos individuales o de grupos específicos que no fueran previamente seleccionados por un operador humano autorizado.

Sin embargo la directiva permite a los mandos aprobar sistemas autónomos armamentísticos que estén fuera de este ámbito en algunas circunstancias.

Según la publicación especializada Defense One, el Departamento de Defensa de EEUU ya está desplegando unas directivas más amplias para la adopción de la inteligencia artificial en varias funciones militares.

Mientras tanto, existen muchas tensiones entre el compromiso de la industria tecnológica con la militar. Google ha sufrido una revuelta de sus empleados después de firmar con el Pentágono un proyecto de inteligencia artificial llamado Proyecto Maven para ayudar en el análisis automático de imágenes y video. La empresa ha anunciado que no renovará con el este proyecto cuando termine el contrato a finales de este año, también han rehusado pujar por el enorme plan JEDI del DoD de computación en la nube, argumentando que podrían no adaptarse a los principios éticos sobre inteligencia artificial que introdujeron el año pasado.

Microsoft, por otra parte, continúa trabajando con el DoD, anunciando en octubre pasado que vendería tecnología militar de inteligencia artificial pese a las protestas de sus propios empleados.

 

 

Para manteneros al día de las últimas amenazas haceros fans de nuestra página de Facebook o síguenos en Twitter para intercambiar experiencias en torno al mundo de la seguridad. Si deseas recibir nuestro boletín de seguridad en tu correo electrónico, suscríbete en la siguiente aplicación:

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google photo

You are commenting using your Google account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.