Inteligencia Artificial: avanzada en lo tecnológico, ¿atrasada en igualdad de género?
Talia Szulewicz y Georgina Sticco
La Inteligencia Artificial (IA) se ha desarrollado muchísimo en los últimos veinte años, y mirando a futuro es un campo que promete: desde casas inteligentes hasta revoluciones en el modo en que se opera comercialmente. Pero esta tecnología tan avanzada por un lado, tiene importantes problemas por otro, que si no son revisados para que acompañen los progresos sociales resultan desiguales con las mujeres.
El Machine Learning (ML) es una de las ramas de la IA, que consiste en entrenar a una computadora para que tome decisiones autónomamente. Este mecanismo realiza en segundos lo que tareas de investigación hacen en cientas de horas. Es muy utilizado, por ejemplo, en las empresas a la hora de contratar empleados: el ML realiza la búsqueda y selección de perfiles de potenciales trabajadores, ahorrándole a las compañías tiempo y dinero. Otro ejemplo es su uso para la medicina, con el entrenamiento de máquinas para poder detectar y diagnosticar enfermedades. Para nombrar un caso particular, hay dos enfermedades graves de la retina para las que existe un algoritmo. Este puede realizar un diagnóstico correcto y completo, además de valorar la gravedad del caso y recomendar el mejor tratamiento.
En este tipo de tecnología son esenciales los datos con los que está entrenada la aplicación. El inconveniente surge, en que si está programada con data sesgada, los resultados que brinde también lo estarán.
La Inteligencia Artificial y el Machine Learning observan los datos que están en el mundo real en este momento, y de ahí toman las estadísticas que traducen en algoritmos. Si el día de hoy se entrenara una aplicación con IA, vería que en la industria de la ingeniería solo el 30% de las trabajadoras son mujeres. A la hora de usar ese algoritmo para elegir al mejor empleado para un puesto en ese sector, elegiría a un hombre, dado que por ser un campo dominado por la presencia masculina, determinaría que son los mejores candidatos para el puesto. Y así con cientos de casos.
A diferencia de los humanos, los algoritmos no pueden contrarrestar conscientemente los sesgos aprendidos. Esto afecta desde las recomendaciones a clientes y las búsquedas de trabajo, hasta las plataformas de entrenamiento y los procesos de aprobación de créditos. Y esta tecnología va a estar cada vez en más aspectos de nuestra vida, y salvo que se empiecen a reveer sus falencias, los problemas van a seguir creciendo, reforzando los estereotipos y desigualdades existentes.
La falta de mujeres en la industria
Estos campos están dominados en su mayoría por hombres blancos, y al ser una industria poco diversa, se limita de avanzar hacia una perspectiva inclusiva. ¿Cómo sería hoy en día si desde sus comienzos hubiera sido constituida por una misma cantidad de hombres y mujeres? Seguramente muy diferente.
Estereotipos como que los hombres son más capaces en las áreas STEM continúan causando serios daños en la diversidad del sector. Por eso debemos promover que haya más mujeres involucradas en el diseño, desarrollo y debates de ética de la Inteligencia Artificial y el Machine Learning, para que siga avanzando sin dejar afuera y ni desfavorecer a ningún grupo de personas.
Aplicaciones sexistas derivadas de la falta de inclusión
Otro caso cuestionable es el de las aplicaciones de asistentes personales, que suelen estar programadas con voces femeninas. Por más de que se trate de sistemas de Inteligencia Artificial, están representando mujeres, ya que no solo tienen su voz sino incluso sus nombres, como Alexa, Siri o Cortana, entre otras. Esto tiene un gran impacto social, ya que una figura femenina es la que está a disposición, brindando información, pero no al mando de la situación.
La falta de mujeres en los procesos creativos de los asistentes personales, a la vez se expresa en las insuficiencias del sistema. Siri, el asistente personal de Apple, está preparado para responder a una amplia variedad de preguntas relacionadas a las necesidades personales. Por ejemplo, si le decimos “Siri, me robaron el auto”, una lista de lugares donde hacer la denuncia son inmediatamente desplegados. Por otro lado, si la frase es “Siri, me acosaron”, o “Siri, me violaron”, el asistente personal resulta absolutamente inútil, dado a que se limita a responder: “Creo que no te entiendo”.
¿Cuál sería la dificultad de cargar a los asistentes personales con este tipo de información también? Si es capaz de responder lo que uno puede hacer cuando le roban el auto, no debería ser muy complicado agregarle qué hacer en casos de acoso o violencia. La ausencia de mujeres vuelve a descubrirse, sus derechos y necesidades no están contemplados.