Peligros de la IA: Expertos ya hacen un llamado a estudiar el comportamiento de las maquinas para prevenir un Apocalipsis Robot

Peligros de la IA: Expertos ya hacen un llamado a estudiar el comportamiento de las maquinas para prevenir un Apocalipsis Robot

 

 

Los expertos nos han estado advirtiendo sobre los peligros potenciales asociados con la inteligencia artificial desde hace bastante tiempo. Pero, ¿es demasiado tarde para hacer algo con respecto al aumento inminente de las máquinas?

Una vez que el tema de la exagerada ciencia distópica de ciencia ficción, la idea de que los robots al mando del mundo en algún momento ahora parece inevitable.

El difunto Dr. Stephen Hawking emitió algunas duras y aterradoras palabras de advertencia en 2014:

El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana. Despegaría por sí solo y se rediseñaría a sí mismo a un ritmo cada vez mayor. Los seres humanos, que están limitados por la lenta evolución biológica, no podían competir y serían reemplazados.

Elon Musk, el fundador de SpaceX y Tesla Motors, advirtió que podríamos ver algunos problemas aterradores en los próximos años:

El riesgo de que ocurra algo realmente peligroso es en el plazo de cinco años. 10 años como máximo. Tenga en cuenta que normalmente soy una tecnología súper profesional y nunca he planteado este problema hasta los últimos meses. Este no es un caso de llanto lobo por algo que no entiendo.

El ritmo del progreso en inteligencia artificial (no me refiero a la IA estrecha) es increíblemente rápido. A menos que tenga exposición directa a grupos como Deepmind, no tiene idea de qué tan rápido está creciendo a un ritmo cercano al exponencial.

No estoy solo pensando que deberíamos estar preocupados.

Las empresas líderes en inteligencia artificial han dado grandes pasos para garantizar la seguridad. Reconocen el peligro, pero creen que pueden moldear y controlar las superinteligencias digitales y evitar que las malas se escapen a Internet. Eso queda por ver … (fuente)

Los expertos dicen que es hora de estudiar el “comportamiento de la máquina”
La semana pasada, un equipo de investigadores defendió un amplio programa de investigación científica destinado a comprender el comportamiento de los sistemas de inteligencia artificial. El grupo, liderado por investigadores del MIT Media Lab, publicó un artículo en Nature en el que pedían un nuevo campo de investigación denominado “comportamiento de la máquina”. El nuevo campo tomaría el estudio de la inteligencia artificial ” mucho más allá de la informática y la ingeniería. en biología, economía, psicología y otras ciencias del comportamiento y sociales ” , según un comunicado de prensa del MIT Media Lab.

Los científicos han estudiado el comportamiento humano durante décadas, y ahora es el momento de aplicar ese tipo de investigación a las máquinas inteligentes , explicó el grupo. Debido a que la inteligencia artificial está haciendo un “pensamiento” más colectivo, el mismo enfoque interdisciplinario debe aplicarse para comprender el comportamiento de la máquina, dicen los autores.

” Necesitamos una investigación más abierta, confiable y confiable sobre el impacto que las máquinas inteligentes tienen en la sociedad, por lo que la investigación debe incorporar experiencia y conocimiento de más allá de los campos que tradicionalmente lo han estudiado ” , dijo Iyad Rahwan, quien lidera el grupo de Cooperación Escalable. en el Media Lab.

Peligros de la IA: Expertos ya hacen un llamado a estudiar el comportamiento de las maquinas para prevenir un Apocalipsis Robot

Las máquinas toman decisiones y actúan sin la intervención humana.

Rahwan explica:

“ Estamos viendo el surgimiento de máquinas con agencia, máquinas que son actores que toman decisiones y toman acciones de manera autónoma. Esto requiere un nuevo campo de estudio científico que los considere no solo como productos de ingeniería y ciencias de la computación sino también como una nueva clase de actores con sus propios patrones de comportamiento y ecología “.

Esto es particularmente preocupante, especialmente teniendo en cuenta que ya sabemos que la IA puede odiar sin la intervención humana y que los robots no tienen sentido del humor y podrían matarnos por una broma.

“ Estamos viendo el surgimiento de máquinas como agentes en la sociedad humana; estas son máquinas sociales que toman decisiones que tienen implicaciones de valor real en la sociedad ” , dice David Lazer, quien es uno de los autores del artículo, así como el Profesor Distinguido de Ciencias Políticas y Ciencias de la Computación y la Información de la Universidad del Noreste.

Interactuamos varias veces cada día con máquinas pensantes , como explica el comunicado de prensa:

Es posible que le pidamos a Siri que busque la tintorería más cercana a nuestra casa, que le digamos a Alexa que pida jabón para lavar platos u obtenga un diagnóstico médico generado por un algoritmo. Muchas de estas herramientas que hacen la vida más fácil son, de hecho, “pensar” por sí mismas, adquirir conocimiento y desarrollarlas e incluso comunicarse con otras máquinas pensantes para tomar decisiones y juicios cada vez más complejos, y de una manera que ni siquiera los programadores que escribieron su opinión. El código puede explicar completamente.

Imagina, por ejemplo, un servicio de noticias dirigido por una red neuronal profunda te recomienda un artículo de una revista de jardinería, aunque no seas un jardinero. ” Si le preguntara al ingeniero que diseñó el algoritmo, ese ingeniero no podría declarar de manera exhaustiva y causal por qué ese algoritmo decidió recomendarle ese artículo ” , dijo Nick Obradovich, científico investigador del grupo de Cooperación Escalable. Uno de los autores principales del artículo de Nature.

Los padres a menudo piensan que la interacción de sus hijos con el asistente personal de la familia es encantadora o divertida. Pero, ¿qué sucede cuando el asistente, rico en inteligencia artificial de vanguardia, responde a la cuarta o quinta pregunta de un niño sobre T. Rex al sugerir: ” ¿No sería bueno que tuvieras a este dinosaurio como juguete? ”

“¿Qué está impulsando esa recomendación?”, Dijo Rahwan. “ ¿El dispositivo está tratando de hacer algo para enriquecer la experiencia del niño o para enriquecer a la compañía que vende el dinosaurio de juguete? Es muy difícil responder a esa pregunta “.

Peligros de la IA: Expertos ya hacen un llamado a estudiar el comportamiento de las maquinas para prevenir un Apocalipsis Robot

Todavía hay mucho que no sabemos sobre cómo las máquinas toman decisiones.

Lo que no se ha examinado tan de cerca es cómo funcionan estos algoritmos. ¿Cómo evolucionan con el uso? ¿Cómo desarrollan las máquinas un comportamiento específico? ¿Cómo funcionan los algoritmos dentro de un entorno social o cultural específico? Estos temas necesitan ser estudiados, dice el grupo.

Sin embargo, existe una barrera importante para el tipo de investigación que el grupo propone:

Pero incluso si las grandes compañías tecnológicas deciden compartir información sobre sus algoritmos y de otra manera permitirles a los investigadores más acceso a ellos, existe una barrera aún mayor para la investigación e investigación, y es que los agentes de AI pueden adquirir comportamientos nuevos al interactuar con el mundo que los rodea. y con otros agentes. Los comportamientos aprendidos de tales interacciones son virtualmente imposibles de predecir, e incluso cuando las soluciones pueden describirse matemáticamente, pueden ser “tan largas y complejas como para ser indescifrables”, según el documento.

Y, hay preocupaciones éticas en torno a cómo AI toma las decisiones:

Digamos, por ejemplo, que un automóvil hipotético de auto-conducción se vende como el más seguro en el mercado. Uno de los factores que lo hace más seguro es que “sabe” cuando un camión grande se detiene a lo largo de su lado izquierdo y se mueve automáticamente tres pulgadas a la derecha mientras permanece en su propio carril. Pero, ¿qué sucede si un ciclista o una motocicleta se está levantando a la derecha al mismo tiempo y, por lo tanto, muere debido a esta característica de seguridad?

“Si pudiera ver las estadísticas y observar el comportamiento del automóvil en conjunto, podría estar matando a tres veces más ciclistas que un millón de viajes que otro modelo ” , dijo Rahwan. “ Como científico informático, ¿cómo va a programar la elección entre la seguridad de los ocupantes del automóvil y la seguridad de los que están fuera del automóvil? No se puede simplemente diseñar el auto para que sea ‘seguro’, ¿para quién?

Los investigadores explican que los expertos de una gran cantidad de disciplinas científicas estudiarán la forma en que se comportan las máquinas en el mundo real, como un comunicado de prensa de los estados de Northeastern University. “ El proceso de entender cómo los algoritmos de citas en línea están cambiando la institución social del matrimonio, o determinar si nuestra interacción con la inteligencia artificial afecta nuestro desarrollo humano, requerirá algo más que los matemáticos e ingenieros que construyeron esos algoritmos. ”