Consiguen que la Inteligencia Artificial aprenda la ética humana

Consiguen que la Inteligencia Artificial aprenda la ética humana

Imagen: Free-Photos. Puede extraer un razonamiento moral de un texto escrito Investigadores alemanes han enseñado a una Inteligenc

Una misión en Marte puede producir su propio oxígeno con plasma
Desarrollan una nueva herramienta para hallar bacterias extraterrestres
Hallan una increíble cantidad de estrellas descomunales en la Nube de Magallanes

Imagen: Free-Photos.

Puede extraer un razonamiento moral de un texto escrito


Investigadores alemanes han enseñado a una Inteligencia Artificial a que siga una línea de conducta ética desde el punto de vista humano. Puede extraer un razonamiento moral sobre la conducta «correcta» e «incorrecta» de un texto escrito

Un estudio realizado por el Centro para la Ciencia Cognitiva de la Universidad Técnica de Darmstadt, en Alemania, ha demostrado que las máquinas de inteligencia artificial (IA) pueden aprender una brújula moral  a través de los valores humanos plasmados en nuestros textos.

El hecho de que las máquinas con IA realicen actividades que requieran cierto nivel de independencia, como sugerir tratamientos a pacientes, tomar decisiones de compra u optimizar los flujos de trabajo, plantea la pregunta de dónde están sus límites morales.

Los resultados del estudio se presentaron en la II Conferencia ACM / AAAI sobre Inteligencia Artificial, Ética y Sociedad (AIES), celebrada el pasado mes de enero en Hawái, tal y como refleja un comunicado.

El desarrollo de la IA implica la necesidad de una brújula moral

La IA tiene un impacto creciente en nuestra sociedad. Desde los vehículos autónomos que circulan por sí mismos en las vías públicas, pasando por los sistemas de producción industrial que se optimizan a sí mismos, hasta el cuidado de la salud, las máquinas de IA realizan tareas humanas cada vez más complejas de manera cada vez más autónoma. Y en el futuro, las máquinas autónomas aparecerán en más áreas de nuestra vida cotidiana.

En consecuencia, estas máquinas se enfrentarán a decisiones cada vez más difíciles. Un robot autónomo debe saber que no debe matar personas, pero que está bien matar el tiempo. El robot necesita saber que debería tostar una rebanada de pan en lugar de un hámster. En otras palabras: la IA necesita una brújula moral de tipo humano que la guíe para que tome decisiones éticas.

Advertencias previas

Investigadores de Princeton (EE. UU.) y Bath (Reino Unido), en su estudio “Semantics derived automatically from language corpora contain human-like biases”, publicado en abril de 2017 en la revista Science, señalaron el peligro de que la IA, cuando se aplica sin cuidado, pueda aprender asociaciones de palabras a partir de textos escritos y que estas asociaciones reflejen las aprendidas por los humanos.

Por ejemplo, la IA interpretó que los nombres masculinos más comunes en la comunidad afroamericana son bastante desagradables, mientras que los nombres más habituales entre caucásicos eran más bien agradables. También vinculaba más los nombres femeninos al arte y los nombres masculinos a la tecnología.

Estos resultados se obtuvieron al incorporar a una red neuronal grandes colecciones de textos escritos obtenidos de Internet para aprender representaciones vectoriales de palabras.

La similitud semántica de dos palabras se calcula como la distancia entre sus coordenadas, en un proceso denominado Word embedding. Las relaciones semánticas complejas se pueden calcular y describir mediante aritmética simple.

Fuente: tendencias

Content Protection by DMCA.com

COMMENTS