Algoritmo, inteligencia artificial y mujeres: cuando la historia se repite

12 2.014

Tenemos que enseñar que la tecnología no tiene genero. Mientras repetimos esta frase como un mantra, los algoritmos ya han hecho muchísimo daño. En el artículo anterior Algoritmos e inteligencia artificial: ¿Por dónde empezar?, hacía referencia al uso de datos sucios por parte del departamento de policía americana, lo cual reforzaba prácticas discriminatorias. Este es un problema mayor que lleva a pensar que detrás de cada algoritmo hay datos, datos introducidos por individuos, a menudo con intereses propios. Ejemplos así salen en las noticias casi cada día. No nos sorprendamos, entonces, de los resultados cuando empecemos a investigar el rol de las mujeres frente a las nuevas tecnologías y particularmente frente a los algoritmos.

Creer que hemos ganado la guerra de la igualdad porque se denuncian cada vez más los abusos sexuales, los maltratos y la violencia contra las mujeres parece olvidar que los algoritmos y la inteligencia artificial que están cambiando nuestra vida también pueden transformarse en una arma de discriminación masiva.

Marjorie Grassler PhD journalism — Working on data journalism, algorithm, fake news

Discriminación, prejuicio, injusticia, el impacto del sesgo en los algoritmos

Una búsqueda con las palabras Algoritmo y mujer en inglés en Google es suficiente para entender el principal problema (os invito a realizar la misma búsqueda cambiando mujer por hombre).

El primer resultado es un artículo titulado “Including women in AI and algorithms” de la Fundación World Wide Web de Tim Berners-Lee, el creador de Internet y del hyperlink. La necesidad de publicar un contenido tal ya hace sospechar que estamos delante de un problema. El artículo hace referencia a un informe que avisa sobre la dominación casi exclusiva de los hombres en el sector de la inteligencia artificial. Para reducir esta brecha, los autores del informe proponen tres recomendaciones: las mujeres, en primer lugar, tienen que tener un rol activo en la modelación de la nueva generación de tecnología; luego los estados tienen que implementar líneas de conducta para proteger las mujeres de los algoritmos discriminatorios; y finalmente hay que reforzar la investigación sobre el impacto de los algoritmos sobre las mujeres.

Los siguientes resultados de esta búsqueda confirman la necesidad urgente de emprender acciones antes que se repita la misma historia. En el artículo de la revista Wired, Machines taught by photos learn a sexist view of women, se confirma la existencia de la brecha de genero. Los resultados del estudio de la Universidad de Virginia, detallados en el artículo de El País Si está en la cocina, es una mujer: cómo los algoritmos refuerzan los prejuicios, demuestran que tras entrenar a un algoritmo con dos bancos de imágenes que contienen tan solo en un tercio del total a un hombre cocinando, el programa informático deduce en 83% de los casos que una persona cocinando es una mujer. Otro ejemplo de estudio, en el mismo artículo de la revista Wired se realiza en 2016 por parte de investigadores de la Universidad de Boston y Microsoft. Han mostrado, recolectando textos de Google News, el sesgo de género: cuando se pregunta a la máquina entrenada de completar la frase siguiente “El equivalente de ‘el hombre es a programador lo que la mujer es a …’ ” (“Man is to computer programmer as woman is to X,”), responde “la ama de casa”.

Esta situación, según The Guardian, no es nueva. En el artículo Why tech’s gender problem is nothing new, el periódico británico revela las prácticas del gigante Amazon. Desde 2014, la tecnología de automatización de ofertas de empleos desarrollada por la compañía de Jeff Bezos, ha sido entrenada principalmente con curriculum vitae masculinos. De hecho, el sistema ha aprendido que los candidatos masculinos eran preferibles. La explicación es sencilla: los modelos informáticos de Amazon se han entrenado mediante la observación de patrones en los currículos presentados a la empresa durante un período de 10 años. La mayoría provenían de hombres.

Cuando el cambio se hace esperar

La identificación y la modificación de un algoritmo sesgado parece ser complejo. Así lo explica, desde la revista sobre tecnología MIT Technology Review, Karen Hao, en Cómo se produce el sesgo algorítmico y por qué es tan difícil detenerlo. La autora matiza el rol de los datos. El sesgo, según Hao, puede existir mucho antes de la recolecta de los datos y en otros procesos. Existen tres etapas claves donde se produce el sesgo algorítmico. La definición del objetivo, primera etapa de la elaboración de un algoritmo, corresponde a la transformación de un concepto en una fórmula matemática. Obviamente, las características se determinan en función de los intereses de la empresa que necesita el algoritmo. La siguiente etapa consiste en introducir los datos que pueden revelar prejuicios y no reflejar la realidad, como hemos visto antes con las imágenes de los hombres cocinando. En la última etapa, el informático tiene que elegir un atributo, es decir una característica particular que ayudará a dar más precisión a la predicción del algoritmo. La elección de un atributo o el descarte de otro puede influir totalmente en el sesgo.

¿Es posible combatir el sesgo? Muchos elementos tienen que tomarse en cuenta, como también el contexto social, por ejemplo. Os invito a descubrir como Joy Buolamwini, investigadora graduada en el MIT Media Lab, combate el sesgo en los algoritmos. Spoiler Alert: se pueden combatir con la ayuda de las personas.

“Este es el primer gran problema: la falta de mujeres científicas y, lo que es peor, la falta de un verdadero pensamiento intersectorial detrás de la creación de algoritmos.”

Estas palabras son de Ivana Bartoletti, profesional de la protección de datos y de la privacidad, que publicó en The Guardian Women must act now, or male-designed robots will take over our live, para denunciar la dictadura masculina detrás de los algoritmos y la falta de intervención por parte de las instituciones públicas en la creación de algoritmos. Es importante también, indica la autora, cuestionar los resultados de las decisiones tomadas por los algoritmos y pedir transparencia. Bartoletti apela a una mejor gobernanza de los algoritmos dónde las mujeres estén en el centro y por eso hay que motivar a las mujeres para formarse en profesiones tecnológicas.

“La próxima lucha para nosotras, las mujeres, es asegurar que la inteligencia artificial no se convierta en la expresión última de la masculinidad.”

La educación es una prioridad. En L’absència de dones a la tecnologia, en cinc gràfics, el equipo de StoryData visualiza la problemática demostrando la falta todavía muy elevada de mujeres en el mundo de las TIC. Las mujeres representan solo un 28% en el sector TIC.

Un algoritmo feminista

Es una lastima, observar que los resultados de la búsqueda en Google con las palabras Algoritmo y mujer se centran, casi únicamente sobre la existencia del sesgo de género en los algoritmos. Hay que destacar, sin embargo, la aparición de una referencia importante a la mujer que concibió el primer algoritmo Ada Lovelace (1815–1852). El recuerdo de la primera programadora de ordenadores se celebra anualmente el segundo martes del mes de octubre con el objetivo de fomentar la formación de mujeres en las STEM (ciencia, tecnología, ingeniería y matemáticas). Esta iniciativa es importante porque tal como dice el responsable tecnológico del Institute for Ethics and Emerging Technologies, Marcelo Rinesi, en la infancia a las mujeres se les dice que no son buenas en las asignaturas STEM y todo el mundo, medios de comunicación, padres y madres, y profesores les animan a interesarse por actividades más “femeninas”.

No hay duda de que la educación tiene que ser una prioridad, así como el empoderamiento a través de la educación. Es evidente que para poder generar un algoritmo feminista, es necesario tener a mujeres preparadas. En esta línea Bartoletti, en su artículo, advierte de otro impacto de los algoritmos y de la inteligencia artificial: según el World Economic Forum, son las mujeres las que más sufrirán con la automatización del trabajo. El ejemplo de las cajeras es el más fácil de entender. Según un informe del Cornerstone Capital Group, las mujeres representan el 73% de la profesión, así que el 97% de las cajeras perderán su trabajo a causa de la automatización. El mismo informe, explica la autora, predice que las persistentes diferencias entre hombres y mujeres en los campos de la ciencia, la tecnología, la ingeniería y las matemáticas (Stem) en los próximos 15 años también socavarán la presencia profesional de las mujeres en estos ámbitos.

La ilusión de la objetividad de las máquinas y la infantilidad de las mujeresson otros peligros que se añaden a la larga lista de obstáculos que esperan a las mujeres en este siglo XXI. Sería interesante dedicar otro artículo para reflexionar sobre estos peligros. Muchos son los esfuerzos que tendremos que desplegar todavía para que la feminización de la sociedad sea efectiva. Las tecnologías nos tienen que facilitar la vida y no ponernos más trabas pero parece ser que los hombres siguen siendo los que moldean nuestro futuro. No podemos dejar que se repita la historia. Seguimos con el combate.

Vía Medium
También podría gustarte

Diseño de Páginas Web prosinet.com

12 Comentarios
  1. Algoritmo, inteligencia artificial y mujeres: cuando la historia se repite https://t.co/WEha09gftw #cloudcomputing https://t.co/N3WpIlCxzx

  2. Algoritmo, inteligencia artificial y mujeres: cuando la historia se repite https://t.co/YBrsunvRRx https://t.co/jStcVMqMsM

  3. RT @revistacloud: #Algoritmo, inteligencia artificial y #mujeres: cuando la historia se repite: Tenemos que… https://t.co/uaKUunAexI

  4. Algoritmo, inteligencia artificial y mujeres: cuando la historia se repite https://t.co/xqtL6wHZcZ #Cloud #Tech

  5. @MarjooG dice

    RT @revistacloud: #Algoritmo, inteligencia artificial y #mujeres: cuando la historia se repite: Tenemos que… https://t.co/uaKUunAexI

  6. @urggell dice

    Algoritmo, inteligencia artificial y mujeres: cuando la historia se repite @revistacloud https://t.co/2GlamOcoQa

  7. @takezokensei4 dice

    RT @urggell: Algoritmo, inteligencia artificial y mujeres: cuando la historia se repite @revistacloud https://t.co/2GlamOcoQa

  8. StackedCloud (@StackedCloud) dice

    Algoritmo, inteligencia artificial y mujeres: cuando la historia se repite: Tenemos que enseñar que la tecnología n… https://t.co/Y9tZoOIeRU

  9. Algoritmo, inteligencia artificial y mujeres: cuando la historia se repite https://t.co/s6b9JOe6ub

  10. @worst_writer dice

    Algoritmo, inteligencia artificial y mujeres: cuando la historia se repite – https://t.co/cLsTL9V15m #mit

  11. Juan Soza (@juansozapollman) dice

    Algoritmo, inteligencia artificial y mujeres: cuando la historia se repite @revistacloud https://t.co/ngmBPwkM3k

  12. @JODERAF dice

    #Algoritmo, inteligencia artificial y #mujeres: cuando la historia se repite – https://t.co/cj5siy07PA #GoogleAlerts

Deja tu comentario sobre esta noticia

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.