Hawking advirtió los peligros de la Inteligencia Artificial ¿Graves consecuencias?

Hawking advirtió los peligros de la Inteligencia Artificial ¿Graves consecuencias?

  Stephen Hawking ha sido uno de los mayores científicos de la historia de la humanidad. Un hombre que nos dejó muchas enseñan

BASES EXTRATERRESTRES EN LA TIERRA
ORBS: ¿ALMAS que tratan de MANIFESTARSE? Descúbrelo AQUI
No hay OVNIs, según quien lleva toda la vida buscando a E.T., y estas son sus razones

 

Stephen Hawking ha sido uno de los mayores científicos de la historia de la humanidad. Un hombre que nos dejó muchas enseñanzas, pero también muchas advertencias del camino al que nos podría conducir nuestro afán de intentar superarnos tecnológicamente cada vez más. El científico lo dijo claramente, la Inteligencia Artificial remplazará a los humanos. Para Hawking, la Inteligencia Artificial era uno de los peores errores que podría cometer la humanidad si le dan demasiado potencial, pues podría llevarnos, incluso, a nuestra propia destrucción.

¿Stephen Hawking nos advierte sobre el peligro de la Inteligencia Artificial?

En varias entrevistas antes de su fallecimiento, el científico explicó el por qué teme que la humanidad sea llevada a un punto en el que deba competir con sistemas que sean alimentados por la Inteligencia Artificial y pierdan la batalla, siendo reemplazada. Sobre este punto, el físico hizo un llamado a que supervisemos estrictamente la creación de la Inteligencia Artificial para estar seguros de que esta funcione, únicamente, para los intereses de la humanidad.

Pero estas palabras, al parecer, no han sido escuchas y se continúa queriendo cruzar una línea peligrosa.

Hawking también hizo un artículo, junto a Stuart Russel, un experto en computación e informática y Max Tegmark y Fran Wilczek, especialistas en física.

El artículo donde Hawking nos advierte sobre la Inteligencia Artificial

De acuerdo al artículo, si observamos el futuro, no existe un límite de lo que podemos crear en el campo de la Inteligencia Artificial. No existe una barrera física, ni ninguna ley moral que nos impida que las partículas en un sistema de inteligencia artificial se reordenen a sí misma para poder hacer cálculos mucho más complejos de lo que la humanidad es capaz de hacer. Esto es perfectamente posible que suceda, y que se dé un salto totalmente inesperado en lo que creemos.

Tal cual apuntó Irving Good en el 65, un sistema de inteligencia artificial podría mejorarse a sí misma, por sus propios motivos, creando lo que Vernor Vinge nombró como una singularidad, o lo que Johny Deep llama «Trascendencia» en la película que el mismo protagonizó.

No es complicado imaginarse una tecnología muy parecida dominando por completo a los mercados financieros, sobrepasando los diseños que sus creadores le crearon, manipulando líderes o, encontrando formas de construir armas que la humanidad no sea capaz de igualar e, incluso, comprender. A pesar de que el impacto a corto plazo de un sistema de Inteligencia Artificial depende completamente de quien lo maneja, el problema recae a largo plazo y si un sistema así pueda ser o no controlado por los seres humanos.

El mayor acierto o el peor error de la humanidad según Hawking

Estamos en un futuro de posibilidades, oportunidades y peligros que no se pueden calcular. Por ello es lógico pensar que la ciencia está tomando todas las medidas necesarias para asegurar el mejor resultadoSin embargo, esto no es así; si una civilización extraterrestre avanzada enviara un mensaje diciendo que llegarán en unos años, la respuesta de la ciencia sería algo como «Los esperamos, avisen cuando estén llegando», sin tomar en cuenta los riesgos que eso podría representar.

Exactamente lo mismo está sucediendo con la Inteligencia Artificial. A pesar de que sabemos el potencial que tiene este sistema, el cual podría ser el mejor acierto de la humanidad o, de la misma, el peor error en su historia, no se está estudiando de manera seria todas las complicaciones que esto podría acarrear. Las únicas organizaciones que están tomando en cuenta esto son el Centro de Cambridge, para el estudio del riesgo existencial, el instituto para el futuro de la humanidad, el Centro de Investigación de Inteligencia Artificial o el Instituto de Vida Futura. Entonces, toda la humanidad debería preguntarse qué se debe hacer para aprovechar lo mejor de la Inteligencia Artificial y evitar lo peor.

Como se puede leer, el miedo que tenía Hawking sobre la Inteligencia Artificial era realmente palpable y asusta, aún más, que muchas organizaciones que trabajan en esta tecnología no tome las precauciones necesarias ¿Qué sucederá en el futuro?

Content Protection by DMCA.com

COMMENTS