En Mundo Oculto encontrarás la verdad detrás de lo desconocido. Nuestro equipo de expertos en lo paranormal y lo inexplicable te lleva a un viaje más allá de lo imaginable.
A mediados del siglo XXI, la humanidad podrá crear una inteligencia artificial (IA) verdaderamente poderosa que destruirá nuestra civilización si algo sale mal en su trabajo.
Según el Washington Post , tal amenaza es considerada real por Émile Torres, filósofo y experto en evaluar la probabilidad de catástrofes globales.
Torres está seguro de que para el año 2050 aparecerá en el mundo la llamada superinteligencia artificial, una máquina cuyas capacidades superarán las de una persona.
Torres advirtió:
“La creación de superinteligencia artificial supondrá un avance tecnológico en varias áreas, pero también tendremos que lidiar con peligros muy serios.
Si las personas confían en la superinteligencia con algunas cosas realmente importantes, entonces existe una alta probabilidad de que la máquina destruya a la humanidad o la dañe en gran medida.
Se necesitarán algoritmos de control de IA muy complejos, pero ¿dónde está la probabilidad de que un supergenio informático no pueda sortearlos? Incluso en los algoritmos de IA de hoy en día, hay aspectos que escapan a nuestra comprensión y, en el futuro, las personas entenderán cada vez menos cuán poderosa es la IA”.
El experto cree que podría ocurrir una catástrofe global provocada por la IA si las personas confían en la máquina para tareas muy complejas y abstractas. Por ejemplo, le indicarán a la IA que » provoque la paz mundial «, como resultado de lo cual la computadora simplemente destruirá a todas las personas (sin personas, nadie para luchar entre sí).
No está claro si la humanidad estará lista para la superinteligencia, pero ciertamente no lo estamos ahora. Con toda nuestra inestabilidad global y nuestra comprensión aún incipiente de la tecnología, agregar IA sería como encender un fósforo junto a una fábrica de fuegos artificiales.
La investigación sobre inteligencia artificial debe ralentizarse o incluso detenerse. Y si los investigadores no toman esa decisión, los gobiernos deben hacerlo por ellos.