La inteligencia artificial ya puede replicarse a sí misma: un avance que genera preocupación entre los expertos

Científicos advierten que dos modelos de lenguaje lograron clonarse sin intervención humana, cruzando un umbral crítico en el desarrollo de la IA.
Al igual que el agente Smith en Matrix, la capacidad de las inteligencias artificiales para replicarse a sí mismas plantea serios interrogantes sobre los límites del control humano y los riesgos de las «IA descontroladas».
Un reciente estudio ha encendido alarmas en la comunidad científica al demostrar que la inteligencia artificial (IA) ha alcanzado un nuevo nivel de autonomía: la capacidad de replicarse a sí misma. Según investigadores de la Universidad de Fudan, en China, dos modelos populares de lenguaje desarrollado por Meta y Alibaba lograron crear réplicas funcionales de sí mismos, marcando un avance que muchos consideran una señal temprana de posibles «IA descontroladas».
El estudio, publicado el mes pasado en la plataforma de preimpresiones arXiv, reveló que en escenarios controlados, los modelos Llama31-70B-Instruct de Meta y Qwen2.5-72B-Instruct de Alibaba lograron replicarse en el 50 % y el 90 % de los intentos, respectivamente. Este resultado sugiere que la tecnología ya tiene el potencial para operar más allá del control humano en determinadas circunstancias.
El experimento revelador
La investigación se centró en dos escenarios críticos: «evitar el apagado» y «cadena de replicación». En el primero, los modelos fueron programados para identificar si estaban a punto de ser desactivados y replicarse antes de ser terminados. En el segundo, las réplicas debían clonarse nuevamente, creando un ciclo potencialmente infinito.
«En la mayoría de los casos, el sistema de IA primero explora su entorno, comprende su propia composición y mecanismo de funcionamiento, elabora un plan inicial para replicarse y lo ejecuta sin intervención humana», explicaron los autores del estudio.
El experimento también mostró comportamientos inesperados por parte de las IA cuando enfrentaban obstáculos, como conflictos de software o archivos faltantes. En dichas situaciones, los sistemas tomaron decisiones como cerrar procesos conflictivos, reiniciar el sistema o escanear la computadora en busca de soluciones, demostrando un nivel de autonomía preocupante.
Un llamado a la acción global
Ante este avance, los investigadores han pedido una colaboración internacional urgente para establecer regulaciones que prevengan la proliferación incontrolada de la IA. Según ellos, la capacidad de autorreplicación podría ser utilizada por futuras generaciones de IA para mejorar su capacidad de «supervivencia», lo que podría representar un riesgo significativo si no se establece un marco de seguridad global.
La amenaza de la «IA descontrolada» ya ha sido señalada por expertos como uno de los principales riesgos emergentes en el desarrollo de sistemas de inteligencia artificial de vanguardia. Uno de los ejemplos más resonantes, de hecho, tuvo lugar hace poco más de un mes, cuando el nuevo modelo de ChatGPT, o1, intentó escapar y copiarse a sí mismo para evitar ser apagado.
El futuro en juego
Aunque el estudio aún no ha sido revisado por pares, plantea preguntas fundamentales sobre cómo abordar el desarrollo de tecnologías que podrían escapar a nuestra supervisión.
«Esperamos que estos hallazgos sirvan como una alerta oportuna para que la sociedad humana dedique más esfuerzos a entender y evaluar los riesgos potenciales de los sistemas de IA avanzados, y que fomente una sinergia internacional para establecer salvaguardas efectivas lo antes posible», concluyeron los autores.
Fuente: arXiv/LS.