Una Inteligencia Artificial (IA) que trata de emular nuestra inteligencia puede también empezar a comportarse mal, y por ello no debe extrañarnos que también pueda mostrar un lenguaje racista y sexista: porque aprende a partir de nuestra forma de comunicarnos.
Eso es lo que sugieren investigadores de la Universidad de Princeton (Estados Unidos) y de la Universidad de Bath (Reino Unido) en un reciente estudio publicado en la revita Science.
Test de Asociación Implícita
Los autores parten del denominado Test de Asociación Implícita (TAI), un método comúnmente utilizado para medir los prejuicios en los seres humanos, del que ya hemos hablado en Xataka Ciencia para señalar hasta qué punto todos somos prejuiciosos.
Según los autores de la investigación, "replicamos un espectro de prejuicios conocidos, como los que mide el test TAI, utilizando un modelo de aprendizaje automático, muy utilizado y puramente estadístico, entrenado con textos de la web.
“Por ejemplo, los nombres femeninos se asociaban principalmente a términos relacionados con la familia, mientras que los masculinos lo hacían a términos relacionados con carreras profesionales”, explica Aylin Caliskan, una de las autoras. Y no solo se transmitían los prejuicios de género, también los raciales. En el caso de la IA, también se asocian los nombres europeo-americanos con estímulos o términos positivos relacionados con el placer, como ‘regalo’ o ‘felicidad’. Arvid Narayanan, otro de los autores, achaca la transmisión de estos prejuicios no solo a la programación de sus creadores sino también a los datos con los que se ha ‘alimentado’ al sistema.
Imagen | DraXus