Cada vez más procesos se están automatizando. Se delega en las máquinas para ganar en eficiencia gracias a su rapidez y su capacidad para recopilar datos y plantear escenarios. Todo parece un sueño de Matrix, hasta que aparecen casos en los que la inteligencia artificial cae en una trampa muy humana: discriminar por sesgo. Los sindicatos y las asociaciones de consumidores denuncian que existen casos laborales y comerciales en los que el algoritmo discrimina por etnia, ideología, género y clase social.

Dar más poder a la inteligencia artificial mejora nuestras vidas, pero a más mejoras también más problemas, como plantea un reportaje publicado por 'El País' en el que se basa esta información, y que plantea que será la próxima gran lucha sindical. José Varela, responsable de digitalización de UGT, cuenta algunos casos en los que se sospecha que actúa una máquina con sesgo: "por ejemplo a alguien le toca cuatro turnos de noche seguidos, o porque en una promoción laboral se escoge a una persona y no a otra".

Cada vez más empresas utilizan la inteligencia artificial para "determinar las retribuciones variables e incluso los salarios", según explica Varela, mientras que no son capaces de revisar y entender las entrañas de la herramienta: "El 76% de las empresas no evalúan los algoritmos que utilizan".

La inteligencia artificial puede tener prejuicios, ya sea la propia de los autores de su programación, o la forma en que computa, o incluso la información que recoge. Por estas razones, si un algoritmo tiene sesgo suele perjudicar a las mujeres. En el empleo, los grandes factores diferenciadores con el hombre son que ellas son mayoritarias en el trabajo parcial y las situaciones de embarazo; y en el consumo, según explica Patricia Suárez, presidenta de Asufin, que ellas en el pasado han tenido menos poder adquisitivo.

El sesgo de la IA en el consumo y los servicios

A la hora de pedir un crédito, si una máquina es la encargada de evaluar y conceder las condiciones contractuales, es más probable que las de una clienta sean peores. Según Suárez, "nos da menos crédito o más caro, porque considera que tenemos menos dinero"; y eso que, reclama Suárez, "se ha demostrado en estudios, por ejemplo del Banco de España, que las mujeres somos mejores pagadoras, y por eso nos deberían dar más crédito que a los hombres".

Suárez también añade que no solo hablamos de crédito, ni de discriminación de género, sino también de consumo y sesgo de clase social. Asegura que hay casos donde, al evaluar desde qué tipo de móvil u ordenador se está comprando, la inteligencia artificial "puede determinar que tú tienes más dinero o más capacidad adquisitiva que otra persona que tiene otro tipo de dispositivo".

El escenario de decisión de la inteligencia artificial se ensancha, y "este tipo de soluciones van a impactar en toda la vida de los ciudadanos", apunta Daniel López, socio de tecnología de Ecija Abogados. Esto significa que los abusos también podrán darse en más campos, por lo que hay que tener una cosa clara: todos podemos reclamar una decisión final que creamos que ha tomado una máquina.

Si creemos que somos víctimas de una decisión automatizada, "si ha decidido o no que hay que concederme o incluso atenderme en un hospital", dice López, "el derecho de la persona es que pueda ser revisable o que intervenga una persona". A través del derecho de acceso, la empresa también está obligada a facilitarle a esa persona toda la información que tiene que ver con ella. Con todos esos datos, si el afectado considera que ha habido alguna discriminación "puede acudir siempre a la tutela judicial y a las autoridades de control".

Transparencia y supervisión hasta que haya ley

El Parlamento Europeo trabaja en una legislación que se adapte propiamente a la inteligencia artificial, como por ejemplo ya ha hecho la ciudad de Nueva York, donde las empresas ya tienen que demostrar que sus algoritmos no discriminan por raza o género. Hoy los sindicatos piden algo parecido: Javier de Dios, secretario de políticas sectoriales del sector financiero de CCOO, pide que se les informe "para qué se utiliza, qué parámetros están utilizando para tomar decisiones y si está supervisado por una persona". Responsabilidad y transparencia, a lo que se añade una comisión de seguimiento, porque la herramienta aprende constantemente.

Mientras tanto, en España se está trabajando en un Real Decreto para regular los proyectos de inteligencia artificial que la CNMC acaba de valorar positivamente, pero que ha presentado preocupación por salvaguardar la competencia. En concreto, "que no se produzcan ventajas competitivas injustificadas a favor de los participantes", añadiendo que "sin perjuicio de que coexistan intereses privados, permanezcan inalterables y preferentes los objetivos de interés público". Avanzar para todos, sin perjuicio para nadie.