Elon Musk y  Stephen Hawking  advirtieron: los robots armados amenazarán  a la humanidad

Elon Musk y Stephen Hawking advirtieron: los robots armados amenazarán a la humanidad

Elon Musk

Un grupo de científicos, investigadores y académicos preocupados, entre ellos Elon Musk y Stephen Hawking, han advertido que una carrera armamentista militar de inteligencia artificial podría desarrollarse pronto si no se toman medidas preventivas.
Una carrera armamentista mundial es “prácticamente inevitable” si cualquier poder militar importante avanza en el desarrollo de armas de inteligencia artificial, advirtió el grupo en una carta abierta presentada en la Conferencia Internacional Conjunta sobre Inteligencia Artificial en Buenos Aires.
“Es mucho lo que está en juego”, dice la carta. “Las armas autónomas han sido descritas como la tercera revolución en la guerra, después de la pólvora y las armas nucleares”.
Otras notables figuras de la tecnología, entre ellas el cofundador de Apple, Steve Wozniak, y el director ejecutivo de Google DeepMind, Demis Hassabis, también son firmantes de la carta.
Las armas autónomas —piensa en Terminators con pistolas, vehículos inteligentes con ametralladoras incorporadas y drones bombarderos auto pilotados— no son solo material de ciencia ficción. Como lo señala la carta, algunos sistemas de armas son “factibles en cuestión de años, no décadas”.
“Las armas no requieren de materia prima costosa o difícil de obtener, así que se volverán ubicuas y económicas para que todos los poderes militares significativos las produzcan en masa”, dice la carta.
“Las armas autónomas son ideales para tareas como asesinatos, desestabilizar naciones, someter a poblaciones y el asesinato selectivo de un particular grupo étnico”, continúa. “Por lo tanto, creemos que una carrera armamentista militar de inteligencia artificial no sería beneficiosa para la humanidad”.
La guerra de alta tecnología de hoy en día se libra por medio de máquinas por control remoto. El ejército de Estados Unidos actualmente tiene a MADSS, un vehículo explorador de 635 kilos que transporta equipo y dispara una ametralladora. También cuenta con el Protector, un vehículo explorador de 453 kilos que busca bombas y dispara una bazuca.
Sin embargo, los ejércitos ya están experimentando con sistemas automatizados. El sistema israelí de la “Cúpula de Hierro” detecta y derriba cohetes que se acercan. El sistema “Phalanx CIWS” utilizado por los barcos de combate navales de Estados Unidos lo hace con una pistola Gattling que gira. El sistema C-RAM hace lo mismo en tierra por medio de un camión.
En abril, la Escuela de Derecho de Harvard y Human Rights Watch publicaron conjuntamente un informe que pide la prohibición de las armas autónomas.

Elon Musk
pide a la ONU que prohíba los robots asesinos

Expertos mundiales de inteligencia artificial están encendiendo las alarmas por los robots asesinos.
El director ejecutivo de Tesla Motors está entre un grupo de 116 fundadores de compañías de robótica y de inteligencia artificial que le están pidiendo a las Naciones Unidas que prohíba las armas autónomas.
“Las armas letales autónomas amenazan con volverse la tercera revolución en la guerra. Una vez sean desarrolladas, permitirán que el conflicto armado se luche a una escala mucho más grande que nunca y en escalas de tiempo mucho más rápidas que los humanos pueden comprender”, escribieron los expertos en una carta abierta publicada este lunes. “Estas pueden ser armas de terror, armas que déspotas y terroristas usen contra poblaciones inocentes y armas desarrolladas para comportarse de maneras indeseables”, añade la carta.
Entre los firmantes están líderes de compañías de América del Norte, Europa, África y Asia, incluyendo Mustafa Suleyman, un especialista en inteligencia artificial en Google.
“A diferencia de otras manifestaciones de Inteligencia Artificial, que aún reinan en el campo de la ciencia ficción, los sistemas de armas autónomas están en la cúspide de su desarrollo en este momento y tienen un potencial real de causar un daño significante a gente inocente junto con una inestabilidad global”, dice Ryan Gariepy, fundador de Clearpath Robotics y la primera persona en firmar la carta.
Más de una docena de países —incluyendo Estados Unidos, China, Israel, Corea del Sur, Rusia y Gran Bretaña— están actualmente desarrollando sistemas de armas atonomas, según Human Rights Watch.
Musk ha alertado sobre los riesgos de la inteligencia artificial durante años, diciendo que es “potencialmente más destructivo que un ataque con armas nucleares”. Mientras las tensiones se dispararon con Corea del Norte este año, Musk intervino diciendo que la Inteligencia Artificial representa un riesgo “mucho más grande” que el régimen de Kim Jong-un.

Share