¿Tienen los algoritmos problemas de sesgo que pueden afectar a los objetivos de las empresas?
La industria tecnológica tiene un problema de género. Puede que las niñas se sientan interesadas por las diferentes disciplinas de ciencia y tecnología, pero a medida que crecen van dejando esos intereses de una forma mayoritaria (por muchas razones, vinculadas mayoritariamente a clichés de género y creencias interiorizadas) y pasándose a otros terrenos. Las niñas que de pequeñas mostraban tanto interés por el universo STEM (por las siglas en inglés de science, technology, engineering y math, ciencia, tecnología, ingeniería y matemáticas) no acaban convirtiéndose en ingenieras cuando crecen.
El problema ha protagonizado titulares y ha sido el objetivo de no pocas campañas que intentan acercar a las niñas a las ciencias y la tecnología. Y, ahora también, se ha convertido en la llave para reafirmar (y no es la primera vez) un serio problema que tienen los algoritmos.
Como acaba de demostrar un estudio de dos especialistas del Massachusetts Institute of Technology (MIT) y de la London Business School, las mujeres reciben menos anuncios vinculados a trabajos y carreras del universo STEM. Las expertas analizaron los anuncios que se mostraban en Instagram, Facebook, Twitter y Google y llegaron a la conclusión de que un 20% menos de mujeres recibían el anuncio que de hombres. Esto es, el algoritmo que regulaba el anuncio las dejaba fuera a ellas y prefería a los hombres.
Como señalan en las conclusiones del análisis, tanto en Europa como en Estados Unidos (los territorios analizados) es ilegal aplicar sesgos de género en los anuncios de trabajo. Sin embargo, el algoritmo lo hacía. El algoritmo estaba aplicando sus propios sesgos de género.
Y esto es un problema, un problema además mucho más general y con mucho más alcance que el que muestra este estudio y que el que afecta a las cuestiones de género en el universo STEM. Los algoritmos están cada vez más presentes en nuestro día a día y toman cada vez más decisiones, especialmente en el universo de la publicidad. La creencia generalizada es, además, que esas decisiones son más ‘puras’, más ‘limpias’, es decir, mucho más ajenas a los criterios subjetivos que afectan a las decisiones humanas. Pero ¿son realmente tan limpias y tan ecuánimes?
El algoritmo no es mano de santo
Algunos organismos y algunas organizaciones han empezado ya a denunciar el poder de los algoritmos y el potencial sesgo que estos pueden aplicar. Los algoritmos se usan para cosas tan variadas a lo largo del mundo como decidir qué se ve en el feed de tu red social favorita a si te da o no un préstamo el banco, pasando ya por elementos tan sensibles como quien potencialmente puede recibir una libertad provisional, como recuerdan en Technology Review.
Y dado que los algoritmos que se usan para tomar esas decisiones pertenecen a empresas y son por tanto elementos cerrados y no públicos, no se puede saber cómo funciona, de qué parte y por tanto cómo toma sus decisiones. No se puede saber si es o no algo sesgado. El hecho de que sea algo nuevo y que está empezando, que está en su momento de crecimiento de poder y gloria, hace también que se tenga una visión demasiado positiva de ellos. «La gente confía demasiado en ellos», apuntaba un experto.
Los expertos ya han descubierto que los algoritmos tomaban decisiones en ocasiones que eran perjudiciales para ciertos grupos de población o que parte de la información de una manera que es, en realidad, demasiado simplista y no tienen en cuenta las muchas variables que pueden afectar a la vida de los ciudadanos.