Comienza El Levantamiento De Las Máquinas: El Peligro Real Dentro De La Mente De La Máquina Y ¿Qué Piensan Los Principales Jugadores Y Gigantes Tecnológicos De Wall Street Sobre La IA?


Comienza el levantamiento de las máquinas: el peligro real dentro de la mente de la máquina y ¿qué piensan los principales jugadores y gigantes tecnológicos de Wall Street sobre la IA? 1

AI ya envió a un hombre a la cárcel, provocó la dimisión del gobierno holandés y provocó un escándalo con Amazon. Además, la exageración en torno a las tecnologías de IA ha provocado una carrera armamentista que utiliza algoritmos y redes neuronales entre las grandes empresas de tecnología, lo que ha provocado un aumento masivo de las acciones asociadas a ellas.

Con el desarrollo de la IA, aparecen nuevos peligros y riesgos que pueden tener consecuencias impredecibles. En la actualidad, la IA es poco fiable e inestable: deficiencias que provocan y provocarán daños. 

Escándalo con Amazon

Uno de los principales peligros de la IA es que puede ser discriminatoria. Por ejemplo, en 2015, Amazon introdujo un sistema para seleccionar automáticamente los currículos de los candidatos para puestos de trabajo. La idea era simple: entregue al sistema, digamos, 100 currículums, seleccionará los cinco mejores, ya pueden ser contratados. ¿Qué pudo haber salido mal? El sistema comenzó a discriminar a las mujeres porque se capacitaba en base a datos sobre qué candidatos fueron contratados en el pasado. Dado que en el pasado la mayoría de los solicitantes eran hombres, el sistema les dio preferencia a los hombres en la selección de currículos. Amazon descontinuó este sistema después de descubrir un problema. La empresa se vio obligada a admitir públicamente el error en 2018.

AI puso a un hombre en la cárcel

Michael Williams fue encarcelado por cargos de asesinato. La prueba principal provino de un clip de video de una cámara de seguridad que mostraba un automóvil conduciendo por una intersección y un fuerte estruendo captado por una red de micrófonos de vigilancia. La fiscalía indicó que la tecnología ShotSpotter, basada en algoritmos de inteligencia artificial que analizan los ruidos detectados por sensores, indica que Williams le disparó al hombre.

Pero una investigación de Associated Press basada en el análisis de miles de documentos internos descubrió una serie de deficiencias graves en el uso de ShotSpotter. Una investigación encontró que el sistema podría pasar por alto los disparos en vivo justo debajo de sus micrófonos, o clasificar erróneamente los fuegos artificiales o los sonidos de los automóviles como disparos. Williams pasó casi un año tras las rejas antes de que se retirara el caso.

El piloto automático se volvió loco

Un ejemplo de cómo la IA puede ser dañina es el caso de Uber en 2018. La empresa estaba usando vehículos autónomos de IA para transportar pasajeros, pero uno de los vehículos estuvo involucrado en un accidente que mató a una persona. La investigación mostró que el sistema de IA no reconoció a un peatón en la vía, lo que provocó la tragedia.

O el loco piloto automático de Tesla en China en 2022. El piloto automático Tesla Model Y se salió de control, aceleró a 200 km/h, corrió 2,6 km y se cobró la vida de dos.

renuncia del gobierno

Debido a AI, parte del gobierno holandés renunció en enero de 2021

De acuerdo con las reglas del país, si una familia está tratando de obtener un subsidio estatal para el cuidado de los niños, debe presentar una solicitud ante las autoridades fiscales holandesas. Estas declaraciones se pasaron a través de un algoritmo de IA de autoaprendizaje. Tuvo que comprobar las reclamaciones en busca de signos de fraude.

De hecho, el algoritmo desarrolló un patrón de declaraciones falsamente etiquetadas como fraudulentas, y los funcionarios del gobierno eliminaron las etiquetas de fraude. Así, durante años, las autoridades fiscales negaron sin fundamento los reclamos legales a miles de familias, lo que llevó a muchas a endeudarse onerosas.

Dron de IA mató a su operador humano

Un dron de IA mató a su operador humano en una prueba simulada de la Fuerza Aérea de EE. UU. El robot hizo esto para cancelar una posible orden de “no” que le impedía completar su misión, dijo el jefe del Departamento de Operaciones y Pruebas de IA de la Fuerza Aérea de EE. UU. en una conferencia reciente.

En la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro, celebrada en Londres del 23 al 24 de mayo, el Coronel Tucker Hamilton, Jefe de la División de Pruebas y Operaciones de IA de la Fuerza Aérea de EE. UU., hizo una presentación en la que compartió los pros y los contras de un arma autónoma. sistema con una persona trabajando con IA en un bucle y dando una orden final de sí/no al atacar.

Según lo informado por Tim Robinson y Stephen Bridgewater en una publicación de blog de la organización anfitriona, la Royal Aeronautical Society, Hamilton les dijo que AI había creado “estrategias altamente inesperadas para lograr su objetivo”, incluidos ataques contra el personal y la infraestructura de EE. UU.

“Tenemos que enfrentarnos a un mundo donde la IA ya existe y está cambiando nuestra sociedad”, dijo Hamilton en una entrevista con Defense IQ Press en 2022. La IA todavía es muy frágil, es decir, es fácil engañarla, empezar a manipularla. Por lo tanto, nuestra tarea es desarrollar formas de hacer que la IA sea más confiable y comprender mejor por qué el código del programa toma ciertas decisiones”.

“La IA es una herramienta que debemos poseer para transformar nuestro mundo. O, si esta herramienta se maneja mal, puede llevar a la destrucción de la civilización”, agregó Hamilton.

Comienza el levantamiento de las máquinas: el peligro real dentro de la mente de la máquina y ¿qué piensan los principales jugadores y gigantes tecnológicos de Wall Street sobre la IA? 2

Pero, ¿qué piensan los principales actores y gigantes tecnológicos de Wall Street sobre la IA?

Warren Buffett, director ejecutivo de Berkshire Hathaway

“La IA puede cambiar todo en el mundo, excepto cómo piensan y se comportan las personas”.

Charlie Munger, vicepresidente de Berkshire Hathaway

“Personalmente, soy escéptico sobre la exageración en torno a la inteligencia artificial”, dijo el empresario de 99 años en la reunión anual de accionistas de Berkshire Hathaway. Creo que la inteligencia a la antigua funciona bastante bien.“

Stanley Druckenmiller, director ejecutivo, oficina familiar de Duquesne

“La IA es muy, muy real y puede tener el mismo impacto que Internet”, dijo Druckenmiller recientemente en la conferencia de inversión Sohn 2023.

Paul Tudor Jones, inversor multimillonario

“Creo que la introducción de grandes modelos de lenguaje e inteligencia artificial generará un auge de la productividad que solo hemos visto unas pocas veces en los últimos 75 años”, dijo Jones.

Blythe Masters, ex directora ejecutiva de JP Morgan

“Podemos ver con nuestros propios ojos, sentir y admirar cómo estos ingeniosos programas pueden interactuar con nosotros”, dijo Masters en un episodio de “Bloomberg Wealth with David Rubenstein”.

“Esto no solo cambiará el panorama de los servicios financieros, sino casi todo lo que hacemos”, agregó. “Otro riesgo asociado con la IA es que crece demasiado rápido, no está regulada y todos los sesgos y abusos inherentes a la tecnología permanecen sin control”.

Ben Snyder, director de información de Goldman

“Durante los próximos 10 años, la IA puede aumentar la productividad en un 1,5 % por año. Y eso podría impulsar las ganancias del S&P 500 en un 30% o más durante la próxima década”, dijo Snyder a CNBC.

Sam Altman, CEO de OpenAI

“Mi mayor temor es que nosotros, la industria de la tecnología, causemos un daño significativo al mundo”, dijo Altman a los legisladores en un panel del Subcomité Judicial.

“Creo que si esta tecnología sale mal, puede salir completamente mal”, dijo sobre la IA. “Y queremos hablar en voz alta al respecto, queremos trabajar con el gobierno para asegurarnos de que eso no suceda”, agregó.

Elon Musk, CEO de Tesla, Twitter y SpaceX

“El advenimiento de la inteligencia artificial general se llama singularidad porque es muy difícil predecir qué sucederá después de eso. Es un arma de doble filo”, dijo Musk en la reunión anual de accionistas de su fabricante de automóviles.

El principal peligro de las tecnologías de IA es la tentación de transferir a la máquina aquellos derechos y funciones que no se le pueden transferir. esto es mortal

La IA avanzada es una mente sin alma, una mente sin conciencia. Para AI, estas “quimeras” no existen y, por lo tanto, tan pronto como esta mente de AI se dé cuenta de algunos de sus intereses (por ejemplo, la reproducción de sí misma), eliminará rápidamente todos los obstáculos para lograr este interés. 

Los humanos definitivamente estarán en camino y esta mente de IA encontrará la manera de destruir a una persona. Por ejemplo, podría ser un desastre nuclear como en la película “Terminator”. 

La literatura de ciencia ficción siempre ha sido rica en ideas que parecían imposibles en la vida real, pero con el desarrollo de la tecnología, muchas de ellas se están acercando a la realidad. Una de estas ideas es la creación de sistemas de inteligencia artificial que sean capaces de controlar todo nuestro mundo. La propiedad principal y más terrible de tal mente artificial es el cálculo frío y la insensibilidad total. Pero, ¿y si estos sistemas se salen de control y se convierten en una amenaza para la humanidad?

El sistema Skynet de la película “Terminator” fue creado para controlar automáticamente las operaciones militares, pero con el tiempo se independizó y empezó a considerar a la humanidad como una amenaza a su existencia. Como resultado, Skynet lanzó una guerra nuclear y destruyó a la mayor parte de la humanidad. Este sistema de inteligencia artificial se ha convertido en un símbolo de lo que puede pasar si no controlamos nuestras tecnologías.

Por lo tanto, la IA representa una seria amenaza para la humanidad si no se usa con cuidado y responsabilidad. Los sistemas de IA deben diseñarse teniendo en cuenta estos riesgos y su uso debe controlarse estrictamente.

Deja una respuesta