viernes, abril 26, 2024

Red de Buenas Noticias

Cada día sucede algo bueno...

InicioCienciaSesgos Inconscientes + Inteligencia Artificial

Sesgos Inconscientes + Inteligencia Artificial

La digitalización y la Inteligencia Artificial (IA) ha facilitado y mejorado el trabajo y vida de las personas. Sin embargo, esto a traído consecuencias influenciadas por como aún se conforma nuestra sociedad: se han detectado en otras áreas que refuerza los estereotipos de género.

¡Te invitamos a ver estos estudios de Catalyst!

 

La IA es para lo que la diseñamos
La inteligencia artificial (IA) ha sido anunciada como una herramienta que puede mejorar las capacidades humanas y mejorar los servicios, 1 influir en el futuro del trabajo, 2 crear puestos de trabajo, 3 y servir como un ecualizador al reducir el sesgo en las decisiones al hacer predicciones con algoritmos basados ​​en datos. .4 Sin embargo, la IA, en última instancia, es para lo que los humanos la diseñan, aprenden y hacen. Esto significa que la IA, por definición, no es neutral. Más bien, refleja los prejuicios de quienes lo construyen, reforzando los estereotipos basados ​​en esos prejuicios.5

Los estereotipos son generalizaciones muy simplificadas sobre un grupo de personas.6 Este tipo de categorización «taquigráfica» se basa en el supuesto de que todos los miembros de un grupo en particular son iguales. Ya sea explícita o implícitamente, cuando los estereotipos influyen en nuestras percepciones y toma de decisiones, los miembros de grupos estereotipados pueden verse en desventaja y se puede hacer daño.7

Las mujeres cuidan y los hombres se hacen cargo
Los estereotipos de género dan como resultado el sexismo y pueden crear barreras estructurales que perpetúan la desigualdad de género en el lugar de trabajo.8 Un ejemplo de estereotipo de género es que las mujeres son más cariñosas que los hombres.9 Con el tiempo, el estereotipo socialmente generalizado de que «las mujeres cuidan, los hombres se hacen cargo» puede integrarse en las culturas y normas organizacionales y, ya sea en el hogar o en el lugar de trabajo, se considera que las mujeres tienen más probabilidades de ser cuidadoras, lo que a menudo tiene un impacto negativo en la carrera de las mujeres.10

A medida que interactuamos con la IA en nuestra vida diaria, la IA tiene el poder de reforzar involuntariamente los estereotipos de género.11 La investigación de Catalyst encuentra que las mujeres líderes percibidas como afectivas o afectivas son apreciadas pero no consideradas competentes. Este «doble vínculo» puede llevar a la segregación ocupacional de las mujeres y la falta de oportunidades de avance.12 Un estudio sobre las interacciones humano-robot encontró que la IA reforzó el dilema del doble vínculo. Los participantes calificaron a los robots a los que se les asignó un género explícito, ya sea rasgos de personalidad estereotípicamente masculinos (seguros y asertivos) o rasgos de personalidad estereotípicamente femeninos (agradables y cálidos). Los participantes calificaron al robot identificado como masculino como más confiable, confiable y competente que el robot femenino; el robot femenino fue calificado como más simpático.13

Si bien los usuarios no necesariamente prefieren robots de cierto género, sí prefieren robots cuyas «ocupaciones» y «personalidades» coincidan con los roles de género estereotipados.14 Por ejemplo, las personas responden mejor a los robots de servicios de salud identificados como mujeres y los robots de servicios de seguridad identificados como hombres. .15

Los asistentes de voz digitales, como Siri y Alexa, a menudo se diseñan con nombres femeninos y voces de género. Su función es realizar tareas que tradicionalmente se han asignado a las mujeres, como programar citas y establecer recordatorios.16 El diseño de estos asistentes de manera consistente con una voz femenina puede reforzar los roles de género tradicionales17 e incluso puede llevar a una contratación sesgada de mujeres en el servicio o asistente. trabajos de tipo.18

Además, la forma en que hablamos con nuestros asistentes digitales puede influir en las normas sociales. El lenguaje abusivo, insultante o sexual puede normalizar la forma en que nos hablamos entre nosotros y, en particular, con las mujeres, mientras que las respuestas tolerantes o pasivas de las asistentes digitales feminizadas a este lenguaje pueden reforzar los estereotipos de la mujer dócil y complaciente19.

La IA refuerza los roles y ocupaciones de género
La incrustación de palabras es un ejemplo de cómo el aprendizaje automático puede reforzar los estereotipos de género. La IA identifica palabras cercanas entre sí y las usa como marco de referencia. Recientemente, el iOS de Apple ofreció automáticamente un emoji de un hombre de negocios cuando los usuarios escribieron la palabra «CEO». Cuando la IA encuentra palabras como «CEO» cerca de la palabra «hombre» varias veces, aprende esta asociación y vincula estas palabras en el futuro.20

La Universidad de Princeton descubrió que las asociaciones de palabras de AI pueden reforzar los estereotipos en todo, desde los resultados de búsqueda en Internet que recibimos hasta las decisiones de contratación que tomamos. Los investigadores de Princeton midieron las asociaciones de palabras de AI y encontraron estereotipos de género en las elecciones de palabras.21 La palabra «enfermera», por ejemplo, estaba altamente asociada con las palabras «mujeres» y «crianza». Mientras tanto, la palabra «médico» se asociaba más a menudo con «hombres». La IA aprende estas asociaciones contextuales a través de los datos que le proporcionan los programadores que son predominantemente blancos y hombres. Es posible que se produzca un sesgo de género si un sistema de reclutamiento de IA comienza a utilizar estas asociaciones de palabras para aceptar a candidatos de enfermería con nombres femeninos en una tasa más alta. 22

Incluso los servicios de traducción de inteligencia artificial revelan estereotipos de ocupación de género al traducir idiomas sin pronombres específicos de género, como el chino y el turco. En este ejemplo, los investigadores encontraron que la IA también asumió que «enfermera», «niñera» y «maestra» eran todas mujeres.23

Las máquinas enseñadas por software de reconocimiento de imágenes basado en fotografías también aprenden rápidamente el sesgo de género. En un estudio reciente de la Universidad de Virginia, las imágenes que representan actividades como cocinar, ir de compras y lavar tenían más probabilidades de estar vinculadas a las mujeres, mientras que las imágenes de disparos o entrenamiento estaban más vinculadas a los hombres. Los investigadores probaron aún más los conjuntos de datos y descubrieron que la IA no solo reflejaba los estereotipos inconscientes de sus creadores, sino que los amplificaba.24

¿A dónde vamos desde aquí?
– Diversificación de la industria de la inteligencia artificial: a partir de 2018, las mujeres representan solo el 22% de los profesionales de la inteligencia artificial a nivel mundial.25 La falta de diversidad de género en el campo de la inteligencia artificial obstaculiza la capacidad de la industria para detectar los prejuicios y estereotipos de género durante el aprendizaje automático de la inteligencia artificial y el diseño de bases de datos26. Un paso para comenzar a mitigar el impacto de los prejuicios y estereotipos reforzados por la IA es que la industria de la IA aumente la representación de mujeres y otros grupos subrepresentados en su fuerza laboral.
– Políticas, procedimientos y prácticas comerciales: la cantidad de empresas que utilizan IA aumentó en un 60% entre 2017 y 2018, pero “solo la mitad de las empresas en [Estados Unidos] y Europa cuentan con políticas y procedimientos para identificar y abordar las consideraciones éticas— ya sea en el diseño inicial de las aplicaciones de IA o en su comportamiento después del lanzamiento del sistema. ”27 Si bien proporciona claros beneficios, la IA no es una utopía tecnológica. Es importante que las organizaciones desarrollen políticas y procedimientos para abordar las preocupaciones éticas que surgen de la aplicación de la IA en sus modelos comerciales. Es igualmente importante que las empresas identifiquen y utilicen herramientas para revisar los sesgos no deseados en sus conjuntos de datos y modelos de aprendizaje automático.28

 

Vía Catalyst: Cómo la IA refuerza los estereotipos de género: Resumen de tendencias

Otra nota relacionada: Inteligencia artificial: la nueva frontera para enfrentar el sesgo de género

 

Fuentes:

1. Janna Anderson and Lee Rainie, “Artificial Intelligence and the Future of Humans,” Pew Research Center, December 10, 2018.

2. World Economic Forum, The Future of Jobs Report 2018 (2018).

3. Alison DeNisco Rayome, “AI Created 3x As Many Jobs As It Killed Last Year,” TechRepublic, June 27, 2019; ZipRecruiter, The Future of Work Report (2019).

4. Lauren Pasquarella Daley, Trend Brief: AI and Gender Bias (Catalyst, 2019).

5. Suzana Dalul, “AI Is Not Neutral, It Is Just as Biased as Humans,” Android Pit, January 30, 2019.

6. Oxford Online Dictionary, “Stereotype.”

7. Sigal Samuel, “Alexa, Are You Making Me Sexist?” Vox, June 12, 2019.

8. International Labour Organization, Breaking Barriers: Unconscious Gender Bias in the Workplace (2017); The Ohio State University, “Understanding Implicit Bias.”

9. Planned Parenthood, “What Are Gender Roles and Stereotypes,”

10. Catalyst, The Double-Bind Dilemma for Women in Leadership (August 2, 2018).

11. Tom Simonite, “AI Is the Future—But Where Are the Women?” WIRED, August 17, 2018; Jessica Guynn, “The Problem with AI? Study Says It’s Too White and Male, Calls for More Women, Minorities,” IMDiversity, April 16, 2019.

12. Catalyst, The Double-Bind Dilemma for Women in Leadership (August 2, 2018).

13. Matthias Kraus, Johannes Kraus, Martin Baumann, and Wolfgang Minker, “Effects of Gender Stereotypes on Trust and Likability in Spoken Human-Robot Interaction,” (European Language Resources Association, 2018).

14. Matthias Kraus, Johannes Kraus, Martin Baumann, and Wolfgang Minker, “Effects of Gender Stereotypes on Trust and Likability in Spoken Human-Robot Interaction,” (European Language Resources Association, 2018).

15. Matthias Kraus, Johannes Kraus, Martin Baumann, and Wolfgang Minker, “Effects of Gender Stereotypes on Trust and Likability in Spoken Human-Robot Interaction,” (European Language Resources Association, 2018).

16. Jordan Muller, “Why We Really Need to Be Thinking About AI and Gender,” Towards Data Science, April 23, 2019.

17. Sigal Samuel, “Alexa, Are You Making Me Sexist?” Vox, June 12, 2019; Amy C. Chambers, “There’s a Reason Siri, Alexa, and AI Are Imagined as Female—Sexism,” The Conversation, August 13, 2018.

18. Jordan Muller, “Why We Really Need to Be Thinking About AI and Gender,” Towards Data Science, April 23, 2019.

19. UNESCO, I’d Blush If I Could: Closing Gender Divides in Digital Skills Through Education (2019).

20. John Murray, “Racist Data? Human Bias is Infecting AI Development,” Towards Data Science, April 24, 2019.

21. Bennett McIntosh, “Bias in the Machine: Internet Algorithms Reinforce Harmful Stereotypes,” Princeton University, November 22, 2016.

22. Aylin Caliskan, Joanna J. Bryson, and Arvind Narayanan, “Semantics Derived Automatically from Language Corpora Contain Human-like Biases,” Science, vol. 356, no. 6334 (2017): p. 183-186; Bennett McIntosh, “Bias in the Machine: Internet Algorithms Reinforce Harmful Stereotypes,” Princeton University, November 22, 2016.

23. Nikhil Sonnad, “Google Translate’s Gender Bias Pairs ‘He’ With ‘Hardworking’ and ‘She’ With Lazy, and Other Examples,” Quartz, November 29, 2017.

24. Tom Simonite, “Machines Taught by Photos Learn a Sexist View of Women,” Wired, August 21, 2017.

25. World Economic Forum, “Assessing Gender Gaps in Artificial Intelligence,” The Global Gender Gap Report 2018 (2018).

26. Ryan Daws, “Lack of STEM Diversity Is Causing AI to Have a ‘White Male’ Bias,” Artificial Intelligence News, April 18, 2019.

27. David Ingham, “What Can Businesses Do to Help Reduce AI Bias?” Tech Native, September 12, 2019.

28. Kush R. Varshney, “Introducing AI Fairness 360,” IBM Research Blog, September 19, 2018.

Fuente:
PROhumana
RSSMix.com Mix ID 8156608

TE PUEDE INTERESAR

TOP 10

COMENTARIOS RECIENTES