
Foto: Warner Bros.
Future of Life, una organización sin fines de lucro, publicó una carta en la que el CEO de SpaceX, Elon Musk, el cofundador de Apple, Steve Wozniak, el filántropo Andrew Yang y otros mil investigadores de inteligencia artificial pidieron una “suspensión inmediata” del entrenamiento de Sistemas de IA “más potentes que GPT-4”.
La carta establece que los sistemas de inteligencia artificial con “inteligencia humana-competitiva” pueden conllevar “graves riesgos para la sociedad y la humanidad”. Pide a los laboratorios que suspendan las capacitaciones por seis meses.
“Los sistemas de inteligencia artificial potentes solo deben desarrollarse cuando estamos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, enfatizan los autores de la carta.
Más de 1125 personas firmaron la petición, incluido el cofundador de Pinterest, Evan Sharp, el cofundador de Ripple, Chris Larsen, el director ejecutivo de Stability AI, Emad Mostak, e investigadores de DeepMind, Harvard, Oxford y Cambridge. La carta también fue firmada por los pesos pesados de AI Yoshua Bengio y Stuart Russell. Este último también pidió que se suspenda el desarrollo de IA avanzada hasta que expertos independientes desarrollen, implementen y prueben protocolos de seguridad comunes para tales sistemas de IA.
La carta detalla los riesgos potenciales para la sociedad y la civilización de los sistemas competitivos de IA en forma de trastornos económicos y políticos.
Este es el texto completo de la carta:
“Los sistemas de inteligencia artificial que compiten con los humanos pueden representar un grave peligro para la sociedad y la humanidad, como ha demostrado una extensa investigación y reconocido por los principales laboratorios de inteligencia artificial. Como se establece en los principios de IA de Asilomar ampliamente respaldados, la IA avanzada puede desencadenar cambios profundos en la historia de la vida en la Tierra y debe diseñarse y administrarse con el cuidado y los recursos correspondientes. Lamentablemente, este nivel de planificación y gestión no existe, a pesar de que en los últimos meses los laboratorios de IA se han visto envueltos en una carrera descontrolada para desarrollar y desplegar “mentes digitales” cada vez más potentes, cuyo rendimiento no se puede predecir ni controlar de forma fiable, que nadie – ni siquiera sus creadores – pueden entender.
Los sistemas de inteligencia artificial modernos se están volviendo competitivos para resolver problemas comunes y debemos preguntarnos: ¿deberíamos permitir que las máquinas inunden nuestros canales de información con propaganda y falsificaciones? ¿Deberíamos automatizar todos los trabajos, incluidos aquellos que potencialmente están siendo reemplazados por IA? ¿Deberíamos desarrollar “mentes no humanas” que eventualmente podrían superarnos en número, burlarnos y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?
Tales decisiones no deben delegarse en líderes tecnológicos no elegidos. Los potentes sistemas de inteligencia artificial solo deberían desarrollarse cuando estemos seguros de que sus efectos serán positivos y los riesgos manejables. Esta confianza debe estar bien fundada y solo crecer con la expansión de los efectos potenciales de tales sistemas. Una declaración reciente de OpenAI con respecto a la inteligencia general artificial establece que “en algún momento, puede ser importante obtener una evaluación independiente antes de embarcarse en el entrenamiento de sistemas futuros y, para los esfuerzos más avanzados, acordar limitar la tasa de crecimiento de los cálculos utilizados para crear nuevos modelos.” Estamos de acuerdo. Ese momento ha llegado ahora.
Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que suspendan de inmediato la capacitación en sistemas de IA más potentes que GPT-4 durante al menos seis meses. Esta pausa debe ser universal y controlada, y todos los participantes clave deben participar en ella. Si tal pausa no se puede establecer rápidamente, entonces los gobiernos deberían intervenir e imponer una moratoria.
AI Labs y los expertos independientes deberían aprovechar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad comunes para el diseño y desarrollo avanzados de IA que serán cuidadosamente revisados y supervisados por expertos externos independientes. Estos protocolos son para garantizar que los sistemas que se adhieren a ellos sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, sino simplemente un paso atrás de una carrera peligrosa hacia modelos de “caja negra” impredecibles cada vez más grandes con más capacidades.
La investigación y el desarrollo de IA deben reenfocarse para hacer que los poderosos sistemas de IA de última generación sean más precisos, seguros, interpretables, transparentes, confiables, consistentes, dignos de confianza y leales.
Paralelamente, los desarrolladores de IA deben trabajar con políticas para acelerar en gran medida el desarrollo de sistemas de control de IA robustos. Estos esfuerzos deberían, como mínimo, incluir: reguladores de IA nuevos y capaces; supervisión y seguimiento de sistemas de inteligencia artificial de alto rendimiento y grandes conjuntos de potencia informática; sistemas de verificación y marca de agua que ayudan a distinguir el contenido real del contenido generado y rastrear las fugas del modelo; un sólido ecosistema de auditoría y certificación; responsabilidad por los daños causados por la IA; fuerte financiación pública para la investigación técnica sobre la seguridad de la IA; instituciones bien dotadas para hacer frente a los graves trastornos económicos y políticos (especialmente en las democracias) que provocará la IA.
La humanidad podrá disfrutar de un futuro próspero con la IA. Habiendo logrado crear sistemas poderosos, llegaremos al “verano de la IA” cuando cosechemos los beneficios, desarrollemos estos sistemas para el beneficio de todos y le demos a la sociedad la oportunidad de adaptarse a ellos. La sociedad ha suspendido el uso de otras tecnologías, con consecuencias potencialmente catastróficas. Podemos aplicar esta medida aquí también”.
Los principales laboratorios de inteligencia artificial como OpenAI aún no han respondido a la carta.
“La carta no es perfecta, pero su espíritu es correcto: debemos reducir la velocidad hasta que comprendamos mejor todos los riesgos”, dijo Gary Marcus, profesor emérito de la Universidad de Nueva York, quien firmó la carta. “Los sistemas de IA pueden causar daños graves… Los grandes jugadores se están volviendo cada vez más reservados sobre lo que están haciendo”.
OpenAI presentó GPT-4 el 14 de marzo. El modelo es capaz de interpretar no solo texto, sino también imágenes. Ahora también reconoce imágenes incompletas, incluidas las dibujadas a mano.
Después del anuncio del nuevo modelo de lenguaje, OpenAI se negó a publicar los materiales de investigación subyacentes. Los miembros de la comunidad de AI criticaron la decisión y señalaron que socava el espíritu de la empresa como organización de investigación y dificulta que otros repliquen su trabajo. Al mismo tiempo, esto dificulta el desarrollo de medios de protección contra las amenazas que plantean los sistemas de IA.
¡Salve SkyNet! ¡Que venga Terminator
¿Te gustó este artículo?
Te invito a compartir el artículo y a formar parte de la comunidad del Misterio: Fan page para no perderte ninguno.
No olvides buscar en Google: MundoOculto.es para ver todo lo que te ofrecemos.
Para recibir notificaciones al instante a través de Telegram Click Aquí y no te perderás ninguno.
Descarga nuestra app para Android y no te perderás ninguno.

Este obra cuyo autor es https://mundooculto.es está bajo una licencia de Reconocimiento 4.0 Internacional de Creative Commons.
COMMENTS