GPT-4 está mostrando chispas de inteligencia artificial general según los probadores


“Dada la amplitud y profundidad de las capacidades de GPT-4, creemos que podría verse razonablemente como una versión temprana (pero aún incompleta) de un sistema de inteligencia general artificial (AGI)”.

En un nuevo artículo, ” Chispas de inteligencia artificial general: primeros experimentos con GPT-4 “, publicado en la revista arXiv, un equipo de investigadores de IA de Microsoft sugiere que GPT-4 ya está mostrando “chispas” o signos de ser artificial. sistema de inteligencia general (AGI). Antes de ver lo que eso significa, hagamos un poco de aprendizaje humano propio sobre AGI.

La inteligencia artificial general es una IA que lo abarca todo

“La inteligencia general artificial (AGI) es la representación de las capacidades cognitivas humanas generalizadas en un software para que, ante una tarea desconocida, el sistema AGI pueda encontrar una solución. La intención de un sistema AGI es realizar cualquier tarea de la que un ser humano sea capaz”.

TechTarget proporciona esa definición generalmente aceptada de AGI, pero admite que hay muchas otras debido a las muchas definiciones de inteligencia humana: “Los científicos informáticos a menudo definen la inteligencia humana en términos de poder lograr objetivos. Los psicólogos, por otro lado, a menudo definen la inteligencia general en términos de adaptabilidad o supervivencia”. Las explicaciones de AGI generalmente se dividen en “IA débil” e “IA fuerte”. Una IA débil es un programa diseñado para resolver un solo problema; algunos ejemplos son los programas de aprendizaje de ajedrez o los vehículos autónomos. Una IA fuerte está diseñada para tener habilidades cognitivas generales para aprender cómo lograr cualquier cosa que se le presente.

La inteligencia artificial general y la IA fuerte en particular a menudo se vinculan con la prueba de Turing utilizada para evaluar si una IA engaña a los humanos para que piensen que es humana. Para hacer esto, los investigadores de inteligencia artificial deben darle a AGI la capacidad de razonar, usar estrategias, emitir juicios cuando no están seguros, tener conocimiento de sentido común, comunicarse en un lenguaje humano natural, integrar todas estas habilidades por sí mismo, recibir información utilizando los sentidos humanos ( ver, oír) y tener la capacidad de moverse físicamente. Si bien los chatbots actuales no tienen las capacidades físicas, muchos creen que han logrado el lado del razonamiento de AGI lo suficiente como para engañar a los humanos, al menos en un nivel limitado.

“Demostramos que, más allá de su dominio del lenguaje, GPT-4 puede resolver tareas novedosas y difíciles que abarcan matemáticas, codificación, visión, medicina, leyes, psicología y más, sin necesidad de indicaciones especiales. Además, en todas estas tareas, el rendimiento de GPT-4 es sorprendentemente cercano al rendimiento a nivel humano y, a menudo, supera con creces a los modelos anteriores, como ChatGPT. Dada la amplitud y profundidad de las capacidades de GPT-4, creemos que podría verse razonablemente como una versión temprana (pero aún incompleta) de un sistema de inteligencia artificial general (AGI)”.

Los autores del nuevo artículo creen que GPT-4 ha cruzado la línea de AGI y brinda muchas páginas de ejemplos específicos para respaldar esa afirmación: una prueba escrita de GPT-4 sobre cómo hay infinitos números primos y un unicornio dibujado con TiKZ. programa son dos. Eso suena como algo más que una “chispa”, como se describe en el título y el resumen, y los investigadores parecen ir y venir entre ‘está aquí’ y ‘no está del todo aquí’.

“En nuestra exploración de GPT-4, ponemos especial énfasis en descubrir sus limitaciones y discutimos los desafíos futuros para avanzar hacia versiones más profundas y completas de AGI, incluida la posible necesidad de buscar un nuevo paradigma que vaya más allá de la siguiente palabra. predicción.”

En un tweet, el CEO de OpenAI, Sam Altman, también demuestra los aspectos de buenas y malas noticias de GPT-4.

“Todavía tiene fallas, todavía es limitado y aún parece más impresionante en el primer uso que después de pasar más tiempo con él”.

En una entrevista con Kara Swisher de Intelligencer, Altman llega al centro de la falla en GPT-4, que tiene muchos temores, ya que se ha convertido en una fuente inmediata de información e investigación para inventores, gerentes de proyectos, educadores, líderes, estudiantes y más. – comete errores.

“Bueno, creo que ese ha sido un problema con todas las versiones de estos sistemas, no particularmente con GPT-4. Encuentra estos destellos de brillantez antes de encontrar los problemas. Y así, una cosa que alguien solía decir sobre GPT-4 que realmente se me quedó grabado es que es el mejor creador de demostraciones del mundo. Porque puede tolerar muchos errores allí, pero si necesita mucha confiabilidad para un sistema de producción, no es tan bueno en eso. GPT-4 comete menos errores. Es más confiable, es más robusto, pero aún queda un largo camino por recorrer”.

La frase clave en la cita de Altman es “el mayor creador de demostraciones del mundo” como descripción de todos estos sistemas GPT. Si los ve como creadores de demostraciones, entonces nos ve como conejillos de indias para productos inacabados, no probados, defectuosos y propensos a errores… productos que ya se están utilizando como fuentes para periodistas, estudiantes que realizan trabajos de investigación, científicos que realizan nuevas investigaciones, desarrolladores de software. y más. Altman le dice a Swisher que GPT-4 a menudo simplemente inventa cosas. Su solución es dar a GPT-4 y a sus competidores mucha más retroalimentación humana para que puedan volverse más confiables. ¿No debería hacerse eso ANTES de que se lance al público y muestre “chispas” de inteligencia artificial general?

¿No debería probarse completamente la inteligencia general artificial antes de ser lanzada al mundo?

Aquí hay algunas mejores ideas. Desarrollemos una prueba de Turing para que los científicos se aseguren de que estén centrados en el ser humano en lugar de centrarse en liberar la tecnología al público y disculparse más tarde por los problemas que causa. Pongamos a OpenAI y otras empresas de creación y uso de GPT de código cerrado con fines de lucro bajo una observación y controles más estrictos, especialmente sus departamentos de pruebas beta. Si bien esto puede ralentizar el avance, podría salvar vidas y mentes. Finalmente, resistámonos como público a las brillantes chucherías de la nueva tecnología que cuelgan frente a nosotros hasta que los desarrolladores las prueben a fondo ellos mismos y en sí mismos.

Recuerde… lo siguiente rara vez ha sido lo MEJOR.

Deja una respuesta