Legislación
Inteligencia artificial

Expertos en IA se reafirman en no desarrollar armas autónomas

Por segunda vez en 12 meses los líderes de la industria de la tecnología han firmado un compromiso para participar en la fabricación, el comercio o el uso de armas autónomas letales.

Deep Learning e Inteligencia Artificial

Tras la promesa realizada durante la Conferencia Internacional Conjunta sobre Inteligencia Artificial de 2018 en Estocolmo, de no desarrollar armas 150 empresas y más de 2.400 personas de 90 países. La industria ha vuelto a manifestar su lucha contra al fabricación de estos temas.

En la lista se encuentran directores generales, ingenieros y científicos de la industria tecnológica, incluidos Google DeepMind, XPRIZE Foundation y Elon Musk, firmaron el compromiso organizado por Future of Life Institute.

Hace casi un año, expertos en IA y robótica firmaron una carta abierta a las Naciones Unidas para detener el uso de armas autónomas. Armas que pueden identificar, atacar y matar a una persona sin un ser humano, es decir, ninguna persona toma la decisión final de autorizar la fuerza letal: la decisión y el permiso sobre si alguien va morir es dejado al sistema de armas autónomo. Esto no incluye los drones actuales, que están bajo control humano; ni sistemas autónomos que simplemente se defienden contra otras armas.

El texto completo firmado es el siguiente:

La inteligencia artificial (AI) está preparada para desempeñar un papel cada vez más importante en los sistemas militares. Existe una oportunidad y necesidad urgente para que los ciudadanos, los legisladores y los líderes distingan entre los usos aceptables y aceptables de la IA.

En este sentido, debemos subrayar que la decisión de tomar una vida humana no debe delegarse en una máquina. Hay un componente moral en esta posición, que no debemos permitir que las máquinas tomen decisiones para tomar vidas por las cuales otros, o nadie, serán culpables.

También existe un poderoso argumento pragmático: las armas letales autónomas, seleccionar y atacar objetivos sin intervención humana, serían peligrosamente desestabilizadores para cada país e individuo. Miles de investigadores de AI coinciden en que al eliminar el riesgo, la atribuibilidad y la dificultad de quitar vidas humanas, las armas autónomas letales podrían convertirse en poderosas herramientas de violencia y opresión, especialmente cuando están vinculadas a sistemas de vigilancia y datos.

 Además, las letales armas autónomas de armas nucleares y las acciones unilaterales de un solo grupo podrían ser provocadas fácilmente por la comunidad internacional, que carece de herramientas técnicas y sistemas de gobernanza global para su gestión. Estigmatizar e impedir una carrera armamentista de este tipo debería ser una alta prioridad para la seguridad nacional y mundial.

Nosotros, los abajo firmantes, hacemos un llamado a los gobiernos y gobiernos para que creen normas, regulaciones y leyes internacionales contra las armas letales autónomas. Actualmente ausentes, optamos por un estándar alto: no participaremos en el desarrollo, la fabricación, el comercio o el uso de armas letales autónomas. Pedimos que las empresas y organizaciones tecnológicas, como líderes, legisladores y otras personas, se unan a nosotros en esta promesa.



TE PUEDE INTERESAR...

Nuevo número de nuestra revista de canal 
 
DealerWorld Digital

 

Cobertura de nuestros encuentros

 

Documentos ComputerWorld



Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?