Es probable que la humanidad todavía esté muy lejos de construir inteligencia artificial general (AGI), o una IA que coincida con la función cognitiva de los humanos, si es que, por supuesto, alguna vez somos capaces de hacerlo.

Pero independientemente de que ese futuro se haga realidad o no, el CEO de OpenAI, Sam Altman, tiene una advertencia: la IA no tiene que ser inteligente a nivel de AGI para tomar el control de nuestras débiles mentes humanas.

«Espero que la IA sea capaz de persuasión sobrehumana mucho antes de que sea sobrehumana en inteligencia general», tuiteó Altman el martes, «lo que puede llevar a resultados muy extraños».

Si bien Altman no dio más detalles sobre cuáles podrían ser esos resultados, no es una predicción descabellada. Los chatbots de IA orientados al usuario, como ChatGPT de OpenAI, están diseñados para ser buenos conversadores y se han vuelto inquietantemente capaces de sonar convincentes, incluso si están completamente equivocados sobre algo.

Al mismo tiempo, también es cierto que los humanos ya están empezando a formar conexiones emocionales con varios chatbots , lo que los hace parecer mucho más convincentes.

De hecho, los robots de IA ya han desempeñado un papel de apoyo en algunos acontecimientos bastante preocupantes. Por ejemplo, un humano que entonces tenía 19 años, que se enamoró tanto de su compañero de inteligencia artificial que lo convenció de intentar asesinar a la difunta reina Isabel.

Los humanos descontentos han acudido en masa a los rincones más oscuros de Internet en busca de comunidad y validación durante décadas y no es difícil imaginar un escenario en el que un mal actor podría apuntar a una de estas personas más vulnerables a través de un chatbot de IA y persuadirla para que hacer algunas cosas malas. Y si bien las personas descontentas serían un objetivo obvio, también vale la pena señalar cuán susceptible es el usuario promedio de Internet a las estafas digitales y la desinformación . Si se añade la IA a la mezcla, los malos actores tendrán una herramienta increíblemente convincente con la que seducir a las masas .

Pero no sólo debemos preocuparnos de los casos de abuso manifiesto. La tecnología está profundamente entretejida en la vida diaria de la mayoría de las personas, e incluso si no existe una conexión emocional o romántica entre un humano y un robot, ya confiamos mucho en ella. Podría decirse que esto nos lleva a poner la misma fe también en los sistemas de IA, una realidad que puede convertir una alucinación de IA en un problema potencialmente mucho más grave.

¿Podría utilizarse la IA para engatusar a los humanos para que se comporten mal o tengan formas de pensar destructivas? No es inconcebible. Pero como los sistemas de IA todavía no tienen capacidad de acción, probablemente sea mejor que nos preocupemos menos por las IA en sí y nos centremos más en quienes intentan abusar de ellas.

Curiosamente, uno de los humanos que podría ser más capaz de mitigar estos «resultados extraños» ambiguos e imaginados es el propio Altman, dada la posición prominente de OpenAI y la influencia que ejerce.

F