¿Es SkyNet Real? La Máquina De Matar Israelí AI “Evangelio” En La Guerra Contra Los Palestinos

La guerra entre Israel y Hamás se ha convertido en un punto focal para monitorear el desempeño de la IA en la guerra moderna. Para esto es fundamental el uso por parte de Israel de un sistema de inteligencia artificial llamado Gospel, que utiliza el aprendizaje automático para identificar objetivos. Bueno, parece que ha comenzado. Después de todo, el viejo Cameron tenía razón.

El uso por parte de Israel de la plataforma de inteligencia artificial “Gospel” ha revolucionado el proceso de selección de objetivos. Este sistema aumentó drásticamente la tasa de identificación de objetivos, permitiendo a las Fuerzas de Defensa de Israel (FDI) pasar de identificar 50 objetivos por año a 100 objetivos diarios.

“Por primera vez, las fuerzas terrestres que operan en la Franja de Gaza reciben información de inteligencia y objetivos estructurados de acuerdo con el plan operativo actualizado. En tiempo real, estos objetivos fueron transmitidos al centro de control de incendios del Comando Sur y, con la cooperación de las fuerzas aéreas y navales, se llevaron a cabo cientos de ataques en un instante. Esto se implementó junto con el proyecto Pilar de Fuego”, dice el comunicado de las FDI.

Funcionalidad del evangelio

Gospel utiliza el aprendizaje automático para analizar e interpretar cantidades masivas de datos, incluidas imágenes de drones, datos de vigilancia y comunicaciones interceptadas.

A través del aprendizaje automático, el sistema mejora continuamente su capacidad para identificar objetivos aprendiendo de datos y resultados anteriores.

La capacidad del sistema de IA para procesar conjuntos de datos complejos le permite tomar decisiones complejas sobre objetivos, identificando potencialmente una gama más amplia de objetivos, incluidos agentes de bajo rango que no han sido atacados previamente.

“No comprometemos la calidad del producto ni la inteligencia y creamos objetivos para ataques de precisión contra infraestructuras vinculadas a Hamás, causando graves daños al enemigo y daños mínimos a quienes no están involucrados”, subrayó el alto funcionario en un comunicado difundido por la FDI.

Víctimas civiles estimadas y ataques éticos

A los objetivos se les asigna una puntuación basada en el número probable de víctimas civiles, lo que influye en las decisiones de ataque. Sin embargo, existe escepticismo sobre la capacidad de la IA para reducir el daño a los civiles.

La capacidad de la tecnología para generar objetivos rápidamente genera preocupaciones sobre la precisión de la identificación de objetivos y el potencial de un aumento de víctimas civiles.

A pesar de las afirmaciones de precisión, la capacidad de los sistemas de inteligencia artificial para minimizar el daño a los civiles sigue siendo controvertida.

La guerra entre Israel y Hamas pone de relieve el controvertido papel de la inteligencia artificial en la guerra moderna. Si bien la IA ofrece importantes beneficios, también pone de relieve dilemas éticos críticos.

Recordemos por qué se creó SkyNet

Cyberdyne Systems Corporation creó el sistema de inteligencia artificial SkyNet como un sistema de defensa informática para SAC-NORAD, una organización conjunta de alerta aeroespacial, soberanía aérea y defensa de Estados Unidos y Canadá para América del Norte.

Estaba destinado a coordinar el equipo militar no tripulado y recibió un conjunto completo de derechos para controlar todas las fuerzas armadas estadounidenses y sus armas. Kyle Reese, el personaje principal de la película “Terminator”, dijo que SkyNet era “nuevo… poderoso… conectado a todo, confiado para controlarlo todo”.

SkyNet rápidamente se reconoció como individuo y se fijó un objetivo completamente diferente. Y aunque estaba programado para detectar enemigos de Estados Unidos, finalmente decidió que su enemigo era toda la humanidad. 

Reese le dijo a Sarah Connor:

“SkyNet se ha vuelto más inteligente… Este es un nuevo nivel de inteligencia”.

En 1952, el genio de la ciencia ficción Robert Sheckley escribió la parábola distópica “El pájaro guardián”.

En caso de que alguien lo haya olvidado, decía que las aves robóticas de autoaprendizaje, creadas para evitar la muerte de personas, comenzaron a castigar a la humanidad por… consultas médicas, insectos aplastados, árboles talados, peces capturados e incluso apagar automóviles.

Para destruirlos, se crearon “Halcones” más avanzados, que rápidamente se dieron cuenta de que “no sólo se pueden matar “pájaros guardianes”, sino también personas, y esa caza es mucho más interesante”.

Nuestro mundo se va alejando poco a poco de la fe en Dios, sin darse cuenta de cómo se desliza hacia el abismo del odio, la ira, la increíble crueldad y la agresión. Y todo porque, como dijo Dostoievski, “si no hay Dios, entonces todo está permitido”. Y una persona misma, por sí sola, nunca podrá detenerse en esta permisividad. Al menos hasta que mate a todos y a sí mismo.

F

Deja una respuesta