add this print this page

Los prejuicios de la inteligencia artificial 

Por Nohan Meza
December 2021
En los últimos años, los seres humanos nos hemos estado acercando a lo que se denomina “la era de la IA” debido a los avances tecnológicos relacionados a la inteligencia artificial en particular al uso ubicuo del reconocimiento facial. Este es el momento en el cual debemos preguntarnos quién crea esta tecnología, cuáles son sus prejuicios y cuáles son las acciones que tenemos disponibles para asegurar un futuro tecnológico inclusivo.
“La tecnología debería trabajar para todos nosotros, no solo algunos”. Estas son las palabras de Joy Buolamwini, directora ejecutiva de la Liga de Justicia Algorítmica (AJL en inglés) con respecto a la utilización de IA y el reconocimiento facial. Si bien sistemas de inteligencia artificial abarcan muchas de nuestras interacciones con el mundo, desde el auto corrector en nuestros teléfonos, a los sistemas de identificación facial utilizados en aduanas y centros de inmigración, muchos no saben cómo funcionan estas tecnologías y los riesgos que existen durante el proceso de su creación.

La inteligencia artificial es la tecnología en la cual programas informáticos ejecutan operaciones comparables a la mente humana. En esta categoría una de las áreas con mayor crecimiento en cuanto a su uso es el reconocimiento facial. Según un estudio de Georgetown Law, uno de cada dos adultos en los Estados Unidos se encuentra en una base de datos de reconocimiento facial policial. El riesgo es que si bien la tecnología no opera a base de prejuicios, los que crean el código y luego los que la utilizan, capaz que sí.

¿Quién ve a quién?
Los estudios del Instituto AI demuestran que la raíz del problema yace en que la industria está dominada por hombres blancos, con un bajo nivel de diversidad y poco entrenamiento dedicado a considerar las diferencias raciales o de género a la hora de crear sistemas inteligentes. Debido al extenso proceso que involucra codificar nuevos programas, la comunidad usualmente comparte sus códigos en páginas de fuente abierta como Github. Estos prejuicios y fallos de representación pueden proliferar a través de la industria de forma rápida y global.

Entonces, se puede enseñar a una computadora a reconocer rostros, pero si solo se utiliza una base de datos con baja diversidad, se crean sistemas enteros que no reconocen la extensa gama de diversidad social y afectan nuestro día a día. Estas computadoras y sistemas inteligentes ‘aprenden’ a ver un mundo blanco. Hoy se utilizan sistemas de IA o reconocimiento facial en aplicaciones de vivienda, bancos, celulares, etc. Podría ser algo tan simple como tener problemas al tratar de entrar a su edificio de departamentos, o tan serio como ser acusado de un crimen del cual uno no es culpable. Los resultados afectarían desproporcionadamente a la gente negra e hispana.

Y los riesgos no solo existen en los Estados Unidos: tanto en Argentina, Brasil como en Uruguay se han aprobado leyes que permiten al gobierno utilizar sistemas invasivos de reconocimiento facial con el supuesto propósito de mantener la seguridad pública.

Computando el cambio
¿Es todo esto la sociedad Orwelliana a la cual se dirige la humanidad? Puede ser. Pero eso no significa que cada persona no tenga el rol de crear un futuro mejor.

La LJA propone varios recursos para auditar sistemas de IA actuales y para compartir testimonios personales. Pero más allá del activismo, el cambio comienza por la concientización, analizando nuestra tecnología: quién codifica importa, cómo codificamos importa y el porqué de nuestro código importa.

También, a más largo plazo, es elemental diversificar la industria de la IA, crear oportunidades que incluyan un mayor nivel de distintos tipos de personas en la industria. Solo así se pueden crear sistemas inteligentes que piensen como todas las razas y etnias de nuestro planeta. En las palabras de Joy Buolamwini, directora y fundadora de la LJA, “Hemos utilizado herramientas computacionales para desbloquear una abundancia inmensa. Ahora podemos crear aún más equidad poniendo el cambio social en el centro de nuestro avance tecnológico en vez de en un plano secundario”.


Recursos:
La Liga de Justicia Algorítmica: ajl.org
¿Qué es la IA equitativa?: es.ajl.org/learn-more
Tomar acción: es.ajl.org/take-action
Documental ‘Coded Bias’ disponible en Netflix


 back to top

COPYRIGHT 2021
La Voz, Cultura y noticias hispanas del Valle de Hudson

 

Comments

Sorry, there are no comments at this time.