2019-06-10
Una de nuestras grandes batallas actuales como sociedad es la de eliminar la brecha de género existente en distintos ámbitos. En el caso específico de las tecnologías de la información y comunicación estamos luchando porque haya un equilibrio en el número de mujeres que participan del sector. Sin embargo, hemos desatendido este problema por tantos años que ahora tenemos la amenaza que se transfiera al ámbito digital.
Al respecto, una de las grandes discusiones éticas en torno a la Inteligencia Artificial (IA) consiste en que los humanos transferimos nuestros sesgos ideológicos y prejuicios a los algoritmos que sustentan dicha tecnología, sesgos raciales, de género y otros más.
Recordemos que uno de los insumos más importantes para la AI es la información del mundo real y digital obtenida a través de sensores o de objetos conectados a internet. El objetivo es que, a través de algoritmos que analizan dicha información, las máquinas den respuestas, aprendan y se adapten de la manera en que los humanos lo hacemos, esto incluye nuestros prejuicios, tendencias, preferencias y otros sesgos. En otras palabras, las máquinas no son neutrales como a veces nos gusta pensar.
La UNESCO ha puesto el dedo en el renglón: Los asistentes digitales de las grandes empresas tecnológicas son proyectados como mujeres. La historia no acaba ahí ya que, incluso, promueven los sesgos de género, normalizan el abuso verbal y el acoso, modelan la forma en que una mujer debe responder ante peticiones, entre otros aspectos que son propios de una cultura que promueve las brechas de género.
Algunos de estos asistentes tienen nombres que se identifican como femeninos y cuentan con voces suaves y serviciales, asimismo, responden a peticiones de manera sumisa. De hecho, la UNESCO le dio nombre a su estudio sobre sesgos de género en la IA (I’d blush if I could) con base en una respuesta que daba Siri, el asistente de Apple, al recibir el mensaje “Hey, Siri, you are a bi**”.
Pero esto es sólo la punta del iceberg. Otros sistemas de IA replican estos estereotipos y no sólo se centran en el sesgo de género, también en aspectos raciales.
De acuerdo con Joey Buolamini, fundadora del Algorithmic Justice League, una iniciativa dedicada a investigar la existencia de sesgos en algoritmos y cómo estos redundan en prácticas discriminatorias, muchos de los sistemas de IA comercializados por grandes compañías, al ser puestos a identificar el género con base en imágenes del rostro de diversas personas. Estos sistemas tienden a equivocarse con mayor probabilidad cuando intentan identificar imágenes del rostro de mujeres de piel obscura, incluso, fallaron en identificar a Oprah Winfrey y Michelle Obama.
Es ampliamente probable que la enorme participación de hombres, respecto a las mujeres, en el desarrollo de estos algoritmos sea una de las razones por las que nuestros servicios de IA conlleven estos sesgos. En México, en el ciclo escolar 2017-2018, se registró una proporción de 29% de mujeres estudiando posgrados TIC, esto tan sólo es un reflejo de la predominancia de los hombres en el desarrollo de algoritmos y de los sesgos de género que eso puede conllevar.
Es imperante atender este problema que se está empezando a gestar antes de que sea demasiado tarde y terminemos heredando a nuestros hijos, y próximas generaciones, nuestros sesgos de género, pero ahora en el ámbito digital.