La Advertencia Del “Lado Oscuro De La IA” De Jordan Peterson Se Está Haciendo Realidad: Los Gigantes Volverán A La Tierra Y Seremos Testigos De Ello, Si Todavía Estamos Vivos

El tiempo se ha acelerado tremendamente. En diciembre, el prof. Jordan Peterson le dio una gran entrevista a Lord Conrad Blake donde Peterson tocó muchos temas. Entre ellos y sobre el ejemplo de ChatGPT, que acababa de aparecer entonces, está la cuestión del “lado oscuro de la IA” .

Peterson advirtió sobre lo siguiente.

“Prepárate para las cosas que van a surgir en el frente de la IA durante el próximo año que te pondrán los pelos de punta.

Ahora ya existe una IA capaz de crear su propia imagen del mundo solo a partir del análisis de un colosal corpus de textos. Y esta IA ya es más inteligente que muchos de nosotros. Pero en un año se volverá incomparablemente más inteligente que la mayoría de nosotros. Porque construirá su imagen del mundo a partir de trillones de patrones, extraídos no solo de los textos de las personas, sino también del mundo mismo (sus imágenes visuales y de otro tipo). El conocimiento en el corazón de su visión del mundo provendrá no solo de las estadísticas lingüísticas de los textos que describen este mundo (como lo tiene actualmente ChatGPT). Pero también de las estadísticas de los patrones de formación y dinámica de las interacciones de los objetos en este mundo.
 Así que mantengan sus sombreros puestos, damas y caballeros. Como dijo Jonathan Pajo, “los gigantes volverán a venir a la Tierra, y es posible que lo veamos, si vivimos”.

Menos de tres meses después, como advierte el prof. Peterson comenzó a hacerse realidad.

Un grupo de investigadores de inteligencia artificial de Google y la Universidad Técnica de Berlín presentó el primer paso hacia lo que hablaba Peterson:

PaLM-E es un   modelo de lenguaje visual (VLM) multimodal de 562 mil millones de parámetros  que combina visión y lenguaje para controlar robots.

Ante el comando “tráeme unos chips de arroz del cajón de la cocina”, PaLM-E puede generar un plan de acción para una plataforma robótica móvil con brazo mecánico (desarrollada por Google Robotics) y ejecutar todo el conjunto de acciones generadas.

PaLM-E hace esto mediante el análisis de datos de la cámara del robot sin necesidad de una representación prerenderizada de la escena. Esto elimina la necesidad de anotación o preprocesamiento humano y permite que el robot funcione de forma autónoma.

PaLM-E es un predictor del siguiente token. Se llama así porque se basa en el modelo de lenguaje grande (LLM) de Google llamado “PaLM”, similar a la tecnología detrás de ChatGPT.

Pero Google ha hecho que PaLM sea “realista” al agregar información sensorial y control robótico.

Dado que se basa en un modelo de lenguaje, PaLM-E recopila continuamente observaciones, como imágenes o datos de sensores, y las codifica en una secuencia de vectores del mismo tamaño que los tokens de lenguaje. Esto permite que el modelo “entienda” la información sensorial de la misma manera que procesa el lenguaje.

El nuevo modelo demuestra habilidades interesantes e inesperadas.

Por ejemplo, exhibe una “transferencia positiva”, lo que significa que puede transferir el conocimiento y las habilidades que ha aprendido de una tarea a otra, lo que resulta en un rendimiento significativamente mayor en comparación con los modelos de robots de una sola tarea.

Además, el modelo exhibe cadenas de razonamiento multimodales (lo que permite que el modelo analice una secuencia de entradas que incluyen información tanto lingüística como visual) e inferencia de múltiples imágenes (usando múltiples imágenes como entrada para hacer una conclusión o predicción), aunque el modelo fue entrenado solo en indicaciones de una sola imagen.

Peterson tenía razón. Mantengan sus sombreros puestos, damas y caballeros. Porque los gigantes ya se acercan.

Deja una respuesta