Publicidad
Publicidad

¿Puede discriminar la inteligencia artificial?

Todo apunta a que las máquinas inteligentes continuarán con uno de los peores y más añejos problemas en toda la historia de la humanidad.
mar 08 junio 2021 08:53 AM
Inteligencia Artificial
La tecnología está logrando avances de forma técnica, aunque la social está en fase de prueba.

La inteligencia artificial (AI) ha sido plasmada por tantos trabajos de ficción que a veces nos cuesta percatarnos de que ya está entre nosotros y con ella, una amplísima gama de posibilidades futuras que van de los sueños utópicos a las pesadillas distópicas. ¿Cuál será la dominante en unos años? Quizá lo mejor sea dejar atrás las visiones más fantásticas para centrarnos en aspectos más aterrizados, siendo el pensamiento de estos sistemas uno de los más importantes.

Por años, los principales defensores de estos avances han asegurado que la lógica de la AI será tan impecable que bien podría terminar con muchos de los problemas generados por la imperfección de la especie. Hay quienes piensan que esto no es tan sencillo, argumentando que sus sistemas serán realizados por una serie de programadores, lo que invariablemente podría impactar en su accionar. Todo apunta a que esta premisa está cumpliéndose con máquinas que discriminan. Suena extraño pero no lo es tanto, pues existen muchos casos al respecto.

Publicidad

Racismo tecnológico

Los casos más sonados de discriminación tecnológica provienen de los algoritmos racistas que atentan de distintas maneras contra la gente de color. Entre lo más absurdo, aunque no por ello menos grave, está una serie de concursos de belleza realizado en 2016 que sólo incluyó una mujer de color entre sus 44 ganadoras; o el hecho de que una búsqueda en Google de "peinados no profesionales para el trabajo" realizada en ese mismo año arrojara centenares de mujeres negras con el cabello peinado de forma natural.

¿Alguna vez has tenido problemas con el etiquetado automático de tus fotos? Seguro que no se compara con lo hecho por Google, que en 2015 se vio envuelto en la polémica cuando numerosas personas de color fueron registradas como gorilas.

Más grave aún es que una investigación realizada en 2014 concluyó que los programas usados por las autoridades norteamericanas consideran que los afroamericanos tienen más probabilidad de reincidir aun cuando tengan el mismo historial delictivo que un caucásico. O que un estudio de salud en 2019 detectara que los algoritmos sanitarios priorizan la atención médica de los blancos aun cuando tengan los mismos padecimientos que alguien de color.

Sistemas machistas

Todo aquel que ha usado Google Translate sabe que bien vale la pena revisar las traducciones para evitar cualquier sorpresa. Pocas tan sonadas como cuando la usuaria de Twitter @DoraVargha descubrió lo que pasaba con el algoritmo al usar un lenguaje neutral de género.

La joven incluyó una captura donde el algoritmo traducía de un húngaro neutro al inglés: “ella lava los platos”, “ella limpia”, “él gana mucho dinero”, “él es político”. Así como un mensaje en que asegura que “así es como el sexismo diario es codificado de manera consistente en 2021”.

No es el único caso, pues un estudio realizado apenas un año antes demostró que incluso aquellos lenguajes que distinguen géneros solían caer en los estereotipos cuando no eran antecedidos de pronombres. President siempre era presidente y no presidenta, mientras que nurse era enfermera y no enfermero. Una complicación que fue resuelta casi plenamente al poco tiempo, pero que no impide que todavía haya mucho por hacer.

Publicidad

Reprogramar el futuro

Titanes tecnológicos han trabajado por resolver estas y muchas otras formas de discriminación tecnológica, pero sus esfuerzos han ido de lo tibio a lo insuficiente. Como ejemplo la crisis del etiquetado, que en su momento fue solucionando con la simple retirada del gorila de la base de datos.

Más grave es que muchos de los especialistas al interior de las compañías que han tratado de solucionar estos problemas han sido ignorados o incluso despedidos. Tal fue el caso de Timnit Gebru, investigadora de Google y una de las pocas mujeres negras en su campo, quien perdió su trabajo en 2020 al manifestar su descontento por la manera en que ésta y otras empresas trabajan con las minorías.

Money - Microchip Digital Payment - Identity Thief
Los recursos biométricos para la Inteligencia Artificial están en las operaciones por internet.

Debido a esto se piensa que el problema no está y quizá nunca estará en la IA, sino en las personas detrás de ella. O como dijera José Ignacio Latorre en su libro Ética para máquinas, “los programas más potentes que ejecutamos en nuestros ordenadores están escritos por humanos. La ética que hoy día codificamos en un algoritmo concreto está escrita por un humano línea a línea en un código. Son los humanos quienes se reúnen y discuten el detalle, la casuística de cada subrutina de decisión. En consecuencia, una parte de la ética que programamos está en manos de esos programadores. Si estos no tienen escrúpulos, si son hackers encubiertos, los programas que usaremos serán terribles”.

Cuando pensamos en futuros distópicos a causa de la IA, casi siempre imaginamos una destrucción masiva provocada por programas como Skynet o Matrix. Ni siquiera nuestras peores pesadillas pudieron anticipar que una máquina concebida para operar bajo una lógica tan perfecta como infalible termine pudiera replicar el racismo. Un problema que, a menos que la naturaleza humana cambie de manera abrupta, parece destinado a trascender más allá de la humanidad.

Publicidad
Publicidad

Publicidad