Cuando alguien busca en Google el concepto de "hombre exitoso", en los resultados de imágenes aparecen, sobre todo, fotografías de hombres blancos. Lo mismo ocurre si escribe en el buscador "mujer exitosa". La mayoría de imágenes son de jóvenes delgadas, guapas y blancas. Si buscamos "hombre guapo" pasa de nuevo: todos los que aparecen en las fotos son blancos. Y con "mujer guapa", igual. Todas blancas.

El proyecto AlgoRace (DesRacializando la IA), integrado dentro de la Asociación Antirracista por los Derechos Humanos (AADH), pelea por eliminar el racismo en los algoritmos. Sus activistas son muy conscientes de los sesgos racistas que se generan en los motores de búsqueda. "El racismo de la sociedad se ve reflejado en estos motores de búsqueda. Porque cada una de nosotras alimenta esos buscadores con las imágenes que nosotras etiquetamos. Al final, se vinculan personas racializadas con pobreza y trabajos precarios. Y personas blancas, con éxito", describe Paula Guerra, portavoz de AlgoRace.

También hay racismo detrás de los filtros de belleza de algunas aplicaciones. La Fundación Ellis ha realizado una investigación en la que analiza cómo muchas de ellas tienden a blanquear las caras. "También porque aplican una serie de cambios en los labios y en la nariz, alineados con un canon de belleza blanco. De manera que estamos equiparando ser bello con ser blanco", determina Nuria Oliver, directora científica de esta fundación radicada en Alicante.

Facebook, hace tres años, tuvo que pedir perdón porque uno de sus algoritmos etiquetaba a personas negras como primates. "Esto tiene que ver con que cuando ese algoritmo fue alimentado con un banco de imágenes, con fotografías de personas mayoritariamente blancas. Entonces, cuando aparecía una persona negra no sabía cómo etiquetarla y lo acabó haciendo con un animal", detalla Paula Guerra.

Muchas de estas grandes empresas tecnológicas trabajan para eliminar estos problemas que generan narrativas racistas pero, todavía, según AlgoRace y Fundación Ellis, queda mucho por hacer.