Un estudio advierte que los principales gigantes compañías tecnológicas podrían estar facilitando la creación de IA que acabara con el mundo

Un estudio advierte que los principales gigantes compañías tecnológicas podrían estar facilitando la creación de IA que acabara con el mundo

La Cruz Cíclica de Hendaya, y el misterio de Laguna Urcos. ¿Refugio para el Apocalipsis?
Este ANTIGUO TEXTO describe cómo fueron EXTERMINADOS LOS NEFILIM
El Impactante Efecto Mandela y Recuerdos de Mundos Paralelos
Un estudio advierte que los principales gigantes compañías tecnológicas podrían estar facilitando la creación de IA que acabara con el mundo

 

por info1

 

El concepto de máquinas artificialmente inteligentes que se están desarrollando hasta el punto de que tienen la capacidad de destruir a la humanidad ha sido materia de ciencia ficción durante décadas. Ahora, advierten investigadores preocupados, las principales compañías tecnológicas de países de todo el mundo están ayudando a convertir esta amenaza en una realidad plausible.

Docenas de las principales compañías tecnológicas de países como Estados Unidos, el Reino Unido, China e Israel se dedican al desarrollo de sistemas de inteligencia artificial con posibles aplicaciones militares, y algunas de ellas crean productos que pueden usarse en sistemas letales de armas autónomas, según un estudio. por la ONG holandesa PAX ha encontrado.

Analizando la posible participación de las compañías tecnológicas en la creación de tales armas, también conocidas como ‘robots asesinos’, PAX define estos sistemas como armas que son “capaces de seleccionar y atacar objetivos individuales sin un control humano significativo”. El grupo de defensa advierte sobre ” enorme efecto ”que estas tecnologías pueden tener“ en la forma en que se lleva a cabo la guerra ”, dado lo que PAX dice es el acuerdo implícito de“ delegar [e] la decisión sobre la vida y la muerte ”en una máquina.

PAX encuestó a cincuenta compañías tecnológicas importantes de 12 países dedicadas a sistemas de inteligencia artificial, preguntándoles hasta qué punto estaban o no involucradas en la creación de armas letales autónomas. Llegaron a la conclusión de que 21 de estas empresas estaban involucradas en proyectos que consideraron de ‘alta preocupación’, con otras 22 empresas listadas como ‘mediana preocupación’, y solo siete recibieron una calificación de ‘mejor práctica’ (lo que significa que no estaban involucradas en el desarrollo de tecnología que puede usarse para armas letales autónomas).

13 de las 22 empresas de ‘alta preocupación’ tienen su sede en los EE. UU. E incluyen Amazon, Intel, Microsoft y Oracle. Otros países que se dice que participan en proyectos que los ubican en la categoría de “ alta preocupación ” son Blue Bear Systems del Reino Unido, que está trabajando en el dron de combate no tripulado Project Mosquito, AerialX de Canadá, trabajando en el proyecto DroneBullet, EarthCube de Francia, trabajando en ‘herramientas de guerra algorítmica del futuro’, Yitu de China, que trabaja en reconocimiento facial para uso de seguridad, y Roboteam de Israel, comprometidos en la creación de sistemas no tripulados y software de inteligencia artificial para vehículos militares semiautónomos.

Palantir, una empresa de tecnología con sede en Estados Unidos que trabaja en análisis de datos, financiada por la CIA, también fue catalogada como ‘alta preocupación’ por su trabajo en IA para el análisis de información de inteligencia recopilada de drones espías.

Otros gigantes tecnológicos en la lista incluyen Alibaba, Apple, Baidu, Facebook, IBM, Samsung, Siemens y Taiwan Semiconductor, que se dice que trabajan de manera similar en tecnologías y aplicaciones militares y relacionadas con la seguridad, incluso si no están directamente en armas letales autónomas.

VisionLabs, una compañía dedicada a la tecnología de reconocimiento visual, fue la única firma tecnológica rusa de inteligencia artificial que hizo la lista de la encuesta PAX, y recibió una calificación de “mejor práctica” por explicar de manera convincente “su política y cómo asegura que su tecnología no contribuya a una autonomía letal armas “.

La compañía japonesa de robótica Softbank, desarrolladores del robot Pepper, también obtuvo una clasificación de “mejores prácticas”.

Frank Slijper, autor principal de la encuesta, dijo que era desconcertante que los principales gigantes tecnológicos de EE. UU. Estuvieran involucrados en el desarrollo de estas tecnologías.

“¿Por qué las compañías como Microsoft y Amazon no niegan que actualmente están desarrollando estas armas altamente controvertidas, que podrían decidir matar a personas sin una participación humana directa”, dijo la AFP, según lo citó.

ADM escalables

Stuart Russell, un profesor de ciencias de la computación de la Universidad de California, Berkeley, advirtió que el futuro de los sistemas de armas basados ​​en IA es el estado de “armas escalables de destrucción masiva, porque si el humano no está al tanto, entonces una sola persona puede lanzar un millón de armas o cien millones de armas “.

“Cualquier cosa que sea actualmente un arma, la gente está trabajando en versiones autónomas, ya sean tanques, aviones de combate o submarinos”, advirtió Russell. Además, postuló que la creación en algún momento en el futuro de sistemas de drones armados más pequeños basados ​​en IA podría usarse para participar en genocidios literales, eliminando “un grupo étnico o un género, o usando información de redes sociales [para] acabar con todas las personas con una [cierta] visión política “.

PAX ofreció varias recomendaciones para que las compañías tecnológicas eviten que sus productos contribuyan a la creación de armas letales autónomas, instando a las empresas a comprometerse públicamente a no hacerlo, estableciendo “una política clara” al respecto y permitiendo una discusión abierta sobre cualquier preocupaciones entre los empleados de la empresa.

 

 

 

AVISO DE USO JUSTO: Esta página contiene material con derechos de autor cuyo uso no ha sido específicamente autorizado por el propietario de los derechos de autor. Esta web distribuye este material con el propósito de reportar noticias, investigación educativa, comentarios y críticas, constituyendo el Uso Justo bajo 17 U.S.C § 107.

¿Te gustó este artículo?

Descarga nuestra app para Android y no te perderás ninguno.

COMMENTS