En agosto de 1955, un grupo de científicos hizo una solicitud de financiación de 13.500 dólares estadounidenses para organizar un taller de verano en Dartmouth College, New Hampshire. El campo que propusieron explorar fue la inteligencia artificial (IA).

Si bien la solicitud de financiación fue humilde, la conjetura de los investigadores no lo fue : «Cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, describirse con tanta precisión que se puede hacer una máquina para simularlo».

Desde estos humildes comienzos, las películas y los medios han romantizado a la IA o la han presentado como un villano. Sin embargo, para la mayoría de las personas, la IA se ha mantenido como un punto de discusión y no como parte de una experiencia vivida conscientemente.

La IA ha llegado a nuestras vidas

A fines del mes pasado, la IA, en forma de ChatGPT , se liberó de las especulaciones de ciencia ficción y los laboratorios de investigación y llegó a los escritorios y teléfonos del público en general.

Es lo que se conoce como «IA generativa»: de repente, un aviso ingeniosamente redactado puede producir un ensayo o armar una receta y una lista de compras, o crear un poema al estilo de Elvis Presley.

Si bien ChatGPT ha sido el participante más espectacular en un año de éxito de la IA generativa, sistemas similares han mostrado un potencial aún mayor para crear contenido nuevo, con indicaciones de texto a imagen utilizadas para crear imágenes vibrantes que incluso han ganado concursos de arte .

Es posible que la IA aún no tenga una conciencia viva o una teoría de la mente popular en las películas y novelas de ciencia ficción, pero está cada vez más cerca de al menos alterar lo que creemos que los sistemas de inteligencia artificial pueden hacer.

Los investigadores que trabajan en estrecha colaboración con estos sistemas se han desmayado ante la perspectiva de la sensibilidad , como en el caso del modelo de lenguaje grande (LLM) LaMDA de Google. Un LLM es un modelo que ha sido entrenado para procesar y generar lenguaje natural.

La IA generativa también ha generado preocupaciones sobre el plagio, la explotación del contenido original utilizado para crear modelos, la ética de la manipulación de la información y el abuso de confianza, e incluso » el fin de la programación «.

En el centro de todo esto está la pregunta que ha ido creciendo en urgencia desde el taller de verano de Dartmouth: ¿La IA difiere de la inteligencia humana?

¿Qué significa realmente ‘IA’?

Para calificar como IA, un sistema debe exhibir cierto nivel de aprendizaje y adaptación. Por esta razón, los sistemas de toma de decisiones, la automatización y las estadísticas no son IA.

La IA se define ampliamente en dos categorías: inteligencia artificial estrecha (ANI) e inteligencia artificial general (AGI). A la fecha, AGI no existe.

El desafío clave para crear una IA general es modelar adecuadamente el mundo con toda la totalidad del conocimiento, de manera consistente y útil. Esa es una empresa enorme, por decir lo menos.

La mayor parte de lo que hoy conocemos como IA tiene inteligencia estrecha, donde un sistema en particular aborda un problema en particular. A diferencia de la inteligencia humana, esta inteligencia de IA limitada es efectiva solo en el área en la que ha sido entrenada: detección de fraude, reconocimiento facial o recomendaciones sociales, por ejemplo.

AGI, sin embargo, funcionaría como lo hacen los humanos. Por ahora, el ejemplo más notable de intentar lograr esto es el uso de redes neuronales y «aprendizaje profundo» entrenado en grandes cantidades de datos.

Las redes neuronales están inspiradas en la forma en que funciona el cerebro humano. A diferencia de la mayoría de los modelos de aprendizaje automático que ejecutan cálculos en los datos de entrenamiento, las redes neuronales funcionan alimentando cada punto de datos uno por uno a través de una red interconectada, ajustando los parámetros cada vez.

A medida que se alimentan más y más datos a través de la red, los parámetros se estabilizan; el resultado final es la red neuronal «entrenada», que luego puede producir el resultado deseado en nuevos datos, por ejemplo, reconocer si una imagen contiene un gato o un perro.

El gran avance en la IA actual está impulsado por mejoras tecnológicas en la forma en que podemos entrenar grandes redes neuronales, reajustando una gran cantidad de parámetros en cada ejecución gracias a las capacidades de las grandes infraestructuras de computación en la nube. Por ejemplo, GPT-3 (el sistema de inteligencia artificial que impulsa ChatGPT) es una gran red neuronal con 175 000 millones de parámetros .

¿Qué necesita la IA para funcionar?

La IA necesita tres cosas para tener éxito.

En primer lugar, necesita datos imparciales y de alta calidad, y muchos. Los investigadores que construyen redes neuronales utilizan los grandes conjuntos de datos que han surgido a medida que la sociedad se ha digitalizado.

Co-Pilot, para potenciar a los programadores humanos, extrae sus datos de miles de millones de líneas de código compartidas en GitHub. ChatGPT y otros modelos de lenguaje extenso utilizan miles de millones de sitios web y documentos de texto almacenados en línea.

Las herramientas de texto a imagen, como Stable Diffusion, DALLE-2 y Midjourney, usan pares de imagen y texto de conjuntos de datos como LAION-5B . Los modelos de IA seguirán evolucionando en sofisticación e impacto a medida que digitalicemos más de nuestras vidas y les proporcionemos fuentes de datos alternativas, como datos simulados o datos de configuraciones de juegos como Minecraft .

La IA también necesita infraestructura computacional para un entrenamiento efectivo. A medida que las computadoras se vuelven más poderosas, los modelos que ahora requieren esfuerzos intensivos y computación a gran escala pueden, en un futuro cercano, manejarse localmente. Stable Diffusion, por ejemplo, ya se puede ejecutar en computadoras locales en lugar de entornos en la nube.

La tercera necesidad de la IA son modelos y algoritmos mejorados. Los sistemas basados ​​en datos continúan progresando rápidamente en un dominio tras otro que alguna vez se pensó que era el territorio de la cognición humana.

Sin embargo, dado que el mundo que nos rodea cambia constantemente, los sistemas de IA deben volver a capacitarse constantemente utilizando nuevos datos. Sin este paso crucial, los sistemas de IA producirán respuestas que son objetivamente incorrectas o que no tienen en cuenta la nueva información que surgió desde que fueron entrenados.

Las redes neuronales no son el único enfoque de la IA. Otro campo destacado en la investigación de inteligencia artificial es la IA simbólica : en lugar de digerir grandes conjuntos de datos, se basa en reglas y conocimientos similares al proceso humano de formar representaciones simbólicas internas de fenómenos particulares.

Pero el equilibrio de poder se ha inclinado fuertemente hacia enfoques basados ​​en datos durante la última década, con los «padres fundadores» del aprendizaje profundo moderno que recientemente recibieron el Premio Turing , el equivalente al Premio Nobel en ciencias de la computación.

Los datos, la computación y los algoritmos forman la base del futuro de la IA. Todos los indicadores indican que se lograrán rápidos progresos en las tres categorías en el futuro previsible.La conversación

George Siemens , codirector, profesor, Centro para el Cambio y la Complejidad en el Aprendizaje, Universidad de Australia Meridional