¿Tiene prejuicios la inteligencia artificial?

Según los expertos, si la información que proporcionamos a un ordenador está sesgada, la inteligencia artificial también lo estará.

La inteligencia artificial (AI) puede ser más rápida y tener más capacidad que los humanos, pero lo que aún no ha superado es el sesgo. Es cierto, los ordenadores pueden tener tantos prejuicios como los humanos. Un código sesgado puede tener consecuencias indeseadas, incluyendo estereotipos erróneos o personas con perfiles raciales. 

Un programa informático es tan bueno como la información que se le proporciona, afirma Andy Hickl, Director de Productos del Grupo de Soluciones Cognitivas Saffron de Intel.

“En última instancia, la inteligencia artificial tiene un sesgo integrado en sus decisiones”, afirma. Esto se debe a las suposiciones que los humanos realizan a la hora de diseñar algoritmos que intentan replicar el criterio humano o bien a las suposiciones que las máquinas realizan cuando aprenden a partir de los datos.

“Si la máquina solo tiene información sobre cómo actúa un segmento de la población y no tiene conocimientos sobre cómo habla, actúa o se comporta el resto del mundo, implícitamente estamos integrando el sesgo en los resultados que obtenemos de la tecnología de inteligencia artificial”, comenta Hickl.

Estereotipos subyacentes

Un ejemplo es la creciente tendencia de utilizar “incrustaciones de palabras” para el cribado de currículums. Esta técnica utiliza asociaciones de palabras que permiten a los ordenadores aprender a identificar posibles candidatos a un determinado puesto de trabajo.

Si existe alguna posibilidad de sesgo, algunos sistemas de AI se han diseñado para solicitar al humano que examine los resultados.

Los investigadores de la Universidad de Cornell observaron que algunas asociaciones tenían sentido, como las palabras “mujer” y “reina”. Sin embargo, otras asociaciones demostraron ser discriminatorias, como la asociación de las palabras “mujer” y “recepcionista”. El resultado fue un aumento de los currículums de mujeres que se tienen en cuenta únicamente para puestos estereotípicos.

El sesgo en la AI genera problemas mucho más serios que un malentendido relacionado con el género o la edad.

En un estudio de ProPublica realizado en 2016 se analizaron las puntuaciones de riesgo de más de 7.000 personas que habían sido arrestadas en el Condado de Broward, Florida, en 2013 y 2014. Las puntuaciones se calcularon con una herramienta de AI creada por Northpointe y utilizada en muchos sistemas judiciales en todo Estados Unidos.

Esta investigación reveló que el 80 % de la gente que la herramienta predijo que cometería un delito violento en los próximos dos años no llegó realmente a cometerlo.

En las predicciones de la herramienta hay un sesgo racial que va aumentando involuntariamente cada vez más. ¿Cuál es el problema? Los mecanismos de AI habían pronosticado que los acusados afroamericanos volverían a cometer delitos adicionales en dos ocasiones más y con la misma frecuencia que los acusados caucásicos. Este pronóstico resultó ser completamente erróneo.

Para solucionar este contratiempo específico de la tecnología de AI, Hickl y su equipo diseñaron un modo de examinar y explicar las conclusiones mediante Saffron, una plataforma de AI. Por tanto, si existe la posibilidad de que haya cierto sesgo o se produzca un error, el sistema recomienda la participación del humano para llevar a cabo la evaluación de los resultados.

Comenzando con los datos defectuosos

Para poder eliminar el sesgo, es fundamental comprender por qué se produce. Una de las principales causas son las estrategias de muestreo imprecisas, cuyo resultado es un aprendizaje automático que está basado en datos sesgados.

Un mayor acceso a los smartphones en los barrios de renta más alta introdujo un sesgo en la información de los baches.

Por ejemplo, la ciudad de Boston utilizó la tecnología de AI para analizar los datos recopilados por el proyecto Street Bump, un programa basado en una aplicación que permite a los usuarios informar sobre los baches que encuentran. Basándose en el estado actual de las carreteras, los agentes querían saber dónde había más probabilidades de que aparecieran baches en el asfalto.

Sorprendentemente, las predicciones indicaron una concentración de baches considerablemente mayor en vecindarios con ingresos medios altos. Pero si observamos más detenidamente, los datos revelaron una situación más sencilla: en realidad, las calles de esos barrios no es que tengan más baches, sino que los residentes informan con mayor frecuencia porque utilizan más a menudo sus smartphones.

Finalmente, los agentes de la ciudad de Boston encontraron la solución perfecta: utilizar los camiones de la basura que recorren todas las áreas de la ciudad para recopilar toda la información necesaria. Si las máquinas solo disponen de una parte de la información que necesitan para realizar suposiciones correctas, el sesgo se añade implícitamente a los resultados, afirma Hickl.

Resultados del método de pruebas y preguntas

Entonces, ¿cómo se puede eliminar el sesgo de la tecnología de AI? Hickl comenta que la clave es proporcionar las herramientas necesarias para actuar del mismo modo que lo hacen los humanos: probar las suposiciones y solicitar más pruebas.

Con esta capacidad para ayudar a analizar grandes volúmenes de datos en tiempo real, una tecnología de AI sin sesgo puede marcar la diferencia en relación a nuestro modo de vivir, trabajar y jugar.

“La AI nos proporcionará las directrices y las sugerencias que necesitamos para vivir aprovechando todo nuestro potencial”, comenta Hickl.

Compartir este artículo

Read Full Story