Sesgos de género en el acceso, el uso y la generación de la Inteligencia Artificial (IA) (Gender biases in the access, use and generation of Artificial Intelligence (AI))

Paola María del Consuelo Cruz Sánchez

Licenciada en Filosofía, maestra en Educación Media Superior en Filosofía y doctora en Pedagogía por la Facultad de Estudios Superiores Acatlán. Medalla Alfonso Caso al Mérito Universitario en 2011 y el reconocimiento al “Mérito Académico” AAPAUNAM en 2019. Docente de Filosofía en el CCH Plantel Naucalpan y en Filosofía de la FES Acatlán, Tallerista en la transversalización de la Perspectiva de Género. CCH Naucalpan/ FES Acatlán.
consuelo.cruz@cch.unam.mx

Resumen: El texto esboza algunas consideraciones en torno al acceso, los usos y la generación de Inteligencia Artificial (IA) desde una mirada filosófica, así como las razones por las cuales estas prácticas deberían ser debatidas en el marco de la eticidad. El planteamiento no es legal, tampoco funcional o incluso técnico, sino una discusión acerca de la responsabilidad que tenemos frente a la ampliación de nuestras capacidades por medio de la tecnología en diferentes espacios, particularmente en el áulico.
Palabras clave: Género, acceso, uso y generación de Inteligencia Artificial.

Abstract: This paper outlines some considerations regarding the access, uses, and generation of artificial intelligence (AI) from a philosophical perspective, as well as the reasons why these practices should be debated within the framework of ethics. The approach is not legal, nor functional or even technical, but a discussion about the responsibility we have in the face of the expansion of our capacities through technology in different spaces, particularly in the classroom.
Keywords: Gender, access, uses, and generation of Artificial Intelligence.

Presentación

El presente escrito tiene como intención debatir en torno al acceso, los usos y la generación de Inteligencia Artificial (IA); a fin de reparar en la asimétrica distribución y capacitación en torno a la tecnología y la tecnología digital. Una primera perspectiva es enfocarse en su uso, lo que afirma que se tiene acceso a ella y además se está capacitado/a/e para utilizarla; y otra, que sean asequibles o incluso inteligibles para todas las comunidades por igual o que los algoritmos a partir de los cuales trabajan las apps sean imparciales, es decir no tengan sesgos de raza, de género o clase, por mencionar algunos.

En el texto se trabajarán particularmente los sesgos de género y la construcción estereotipada de algoritmos, sus consecuencias y el problema derivado de considerar a la tecnología, en este caso, la IA, como neutral.

Algunos datos

Reparemos en los siguientes datos como inicio de la discusión: “las mujeres y las niñas tienen un 25% menos de probabilidades que los varones de aprovechar los beneficios de la tecnología digital para fines básicos, 4 veces menos de saber programar ordenadores y 13 veces menos de solicitar una patente TIC”.1 “Globalmente, solo el 6% de las aplicaciones y software para teléfonos son desarrolladas por mujeres” (UNESCO, 2023, p. 26). Analizar los usos de las tecnologías digitales y de la IA de modo general, muchas veces oculta cómo los roles de género, en este caso, determinan las posibilidades de acceder o no a ella.

Podríamos pensar incluso, en si hay una relación de esta discriminación con la elección de carrera universitaria en las estudiantes de nuestro Colegio. Baste con decir que a nivel mundial la investigación de la tecnología la realizan varones en un 88% y sólo un 12% las mujeres. “En los Anuarios Estadísticos de Educación Superior ANUIES, 2016-2017, (lo cual estaría ligado a…) en las carreras STEM en México, el 62% son varones y mujeres el 38%”.2 Lo cual puede derivar en que las necesidades de las mujeres y la comunidad de la diversidad sexual y genérica están infrarrepresentadas en las tecnologías (UNESCO, 2023, p. 21).3 Podríamos preguntarnos ¿Cuántas apps conocemos dedicadas a la menstruación, la salud sexual o reproductiva, la menopausia, que hayan sido generadas por mujeres?4

Foto: Xavier Martínez

Sólo para enfatizar este punto, las mujeres poseen dispositivos más baratos que los varones, y tienen menor posibilidad de conectividad. La mayoría de las mujeres en nuestro país, sus primeros dispositivos digitales son usados, es decir, han sido heredados. Paradójicamente las asistentas de la IA más utilizadas, Siri y Alexa son voces femeninas; incluso la discusión podría insistir en que el trabajo de la asistente tiene una carga de rol de género.

Discusión

¿En qué términos se plantea la discusión? Considero que iniciar un debate sobre los problemáticos usos de la IA en general y, en nuestro Colegio, exige cuestionarnos, primeramente, sobre si nosotros/as/es estamos completamente alfabetizados/as/es en cuestiones digitales. Enumeremos, como punto de partida individual y comunitaria, cuáles competencias tenemos. Enlisto aquellas habilidades que son consideradas globalmente como mínimas. Pensemos en el siguiente enlistado, a modo de pregunta:

¿Sabemos operar dispositivos digitales, podemos navegar, buscar y filtrar datos e información, somos capaces de evaluar y manejar datos, podemos interactuar a través de tecnologías digitales, compartir tecnologías, colaborar a través de ellas, seguimos las netiquetas, manejamos una identidad digital, podemos desarrollar contenido digital, somos capaces de integrar y reelaborar contenido digital, programar, usar licencias, proteger nuestros dispositivos, nuestro datos, sabemos cómo cuidar nuestra salud digital y del entorno virtual, sabemos resolver problemas técnicos, identificar necesidades y respuestas tecnológicas, crear nuevos usos en las tecnologías digitales, poseemos pensamiento computacional, podemos interpretar datos?, entre otras.5

A partir de este enlistado, podemos ver de qué lado nos encontramos, de lado de quienes poseen un real acceso a la tecnología digital (de modo material y funcional) o de lado de los cuasi-analfabetas, situación que nos llevaría a asumir que estamos parcialmente excluidos/as/es y debiésemos pensar por qué, y, si no poseemos las habilidades como la programación o reelaboración del contenido digital, entonces la brecha se hace mucho más amplia. En otras palabras, meditar sobre los sesgos en los usos de la IA no sólo refiere al acceso a ella, sino que nos obliga a considerar a quienes margina, cómo y por qué.

Retomando los datos anteriores sobre los dispositivos y la conectividad de las mujeres, si la conexión a internet es deficiente y sus dispositivos no son los mejores ya se encuentran en desventaja. Habría que inquirir sobre qué pasa si aun teniendo una eficiente conectividad en el mejor de los aparatos, cómo se encuentra nuestra educación en el cuidado y salud de la identidad digital, por mencionar un aspecto.

Meditar sobre las aplicaciones de la IA requiere mirar cómo las discriminaciones sufridas en la vida no virtual se acentúan en la digital, siendo que la precaria normativa al respecto puede acelerar la infracción de los derechos humanos (DDHH). Piénsese que el uso de los datos personales no protegidos, vulneran a los ya vulnerables en la cotidianidad como: las infancias, las personas de la tercera edad o las mujeres, convirtiéndolos en un objetivo constante. El 73% de las mujeres que usan redes digitales (RRDD) han tenido alguna exposición a la ciber violencia: monitorear sus movimientos, uso de cámaras, exposición de contenido sexual, o manipulación de fotos con contenido sexual, etc.6

Eticidad en el uso de la IA

De ahí que reparar sobre la eticidad de los usos, la creación, la distribución, y el acceso a la IA resulte importante. La ética se debate entre las nociones de bien y mal, correcto e incorrecto, justo e injusto, etc. Solemos pensar que todos estos conceptos no sólo son complicados, sino también relativos. Sin embargo, un elemento que nos puede guiar para distinguir bien de mal es, que el mal genera contradicciones, mientras que el bien no. Podría pensarse que usar la IA es bueno en tanto facilita algunas tareas, pero si sus aplicaciones enfatizan la segregación de algunas personas, la renuncia a usar las propias facultades, o el delito, no podría ser considerada como un total bien.

Foto: Xavier Martínez

En el artículo titulado: “When a Good algorithms go sexist”7 del Departamento de Igualdad, Género y Liderazgo de Berkeley, se muestra que: el 44.2 por ciento de los sistemas de la IA tienen sesgos de género y el 25.7 los tienen de género y de raza. El 70 por ciento de estos sistemas provee de un servicio de menor cualidad a mujeres y personas no binarias, ello implica un acceso diferenciado a los recursos, a la información y a las oportunidades.8 De modo que es necesario programar a partir de algoritmos que contemplen las diversidades.

Piénsese también en las apps que tienen un corte sexista e insisten en los roles de género, o, en la crítica muy acentuada de los cuerpos de las mujeres y las niñas como:

SkinneePix9 que permite a las/es/as usuarios adelgazar 2, 4 o 6 kilos en todas tus fotos o ‘Plastic Surgery & Plastic Doctor & Plastic Hospital Office for Barbie’,10 con la cual las niñas, particularmente, podían realizar cirugías estéticas a sus muñecas para que cumplieran con una imagen estereotipada de mujer. Everyday Sexism Project, el Proyecto Sexismo Cotidiano,11 pugnó para que esta app saliera de App store por las implicaciones dañinas y no éticas para las infancias, en particular, para la autopercepción en las niñas.

No podemos perder de vista que la IA ha sido creada por seres humanos, de modo que, como todas sus creaciones poseen sus intereses, enfoques y también prejuicios. Por ello, los algoritmos a través de los cuales funciona la IA tienen puntos ciegos, sesgos; notarlos pueden contribuir a la exigencia de apps que estén orientadas a partir de visiones más incluyentes, así ganaríamos camino hacia una verdadera pluralidad.

Cuando hablamos de la IA en CCH debemos empezar por una obligada alfabetización en las competencias digitales, si bien ésta debería iniciar mucho antes, pudiendo señalar a la educación previa de la carencia, en nuestra institución tendría que convertirse en un objetivo paulatino, no sólo para el estudiantado, sino también el profesorado. Ello implica un cambio en los modos de aproximarnos a las tecnologías, una modificación de la aversión que a veces sentimos por su uso, así como a las actitudes celebracionistas. Por otro lado, se requiere de una fuerte inversión, a fin de equiparar las condiciones materiales de la comunidad universitaria, lo cual, a la larga permitirían resarcir las diferencias económicas, de edad, de género, etc.

Foto: Xavier Martínez

El segundo paso consiste en discernir qué contenido es verdaderamente relevante, y, pugnar porque éste esté en el lenguaje local. Muchos de los contenidos tecnológicos están en inglés, ello constituye de suyo una exclusión. Por otro lado, las políticas que intentan subsanar los rezagos, en sus ejercicios de compensación continúan enfatizando los prejuicios y entorpeciendo los caminos para la igualdad sustantiva.

Por ejemplo, el llamado pink content (contenidos rosas en español), informaciones dirigidas puntualmente a la Comunidad LGBTTTIAQ+, no siempre brindan información de interés que pudiera mejorar la vida de las personas a quienes van dirigidas; tienden más a fomentar identidades muchas veces reaccionarias, que dar soluciones a problemáticas reales. En algunas de las apps prevalece un pinkwashing,12 prácticas de mercadotecnia que las presentan como amistosas con la comunidad LGBTTTIAQ+, que en realidad han descubierto el potencial de ventas de la misma. Si este tipo de aplicaciones no posee una verdadera convicción de combatir las violencias contra la comunidad, entonces no se puede decir socialmente comprometida con la causa.

En otras palabras, el uso de las tecnologías digitales y de la IA debe acompañarse del cuestionamiento de los algoritmos, de los sesgos que existen en su construcción y de la importancia que posee tal o cual información para mejorar la vida de quienes la consumen. Requiere un compromiso ético con nuestro consumo digital al que no estamos acostumbrados/as/es, si acaso lo hemos considerado en nuestras reflexiones. De modo que, una educación digital no solo implica saber usar los dispositivos, sino tomar distancia de ellos, mirar analíticamente qué empleo les damos, y si no estamos siendo gobernados/as/es por la tecnología. Considerar si no hemos perdido cierta autonomía o en cómo podemos responder a la obligatoriedad de un mundo configurado a partir de ella.

¿Aún tiene cabida pensar?, o ¿la IA ya nos ha ahorrado el esfuerzo?

El uso de las tecnologías digitales y de la IA debe acompañarse del cuestionamiento de los algoritmos, de los sesgos que existen en su construcción y de la importancia que posee tal o cual información para mejorar la vida de quienes la consumen.

Cierre
Foto: Pulso CCH Naucalpan

Si la IA es una aliada para la creatividad, o un modo de economizar pasos, aprovechemos sus beneficios sin dejar de considerar que la ayuda <> debe usarse en caso de haber agotado los esfuerzos propios, sobre todo en el proceso de enseñanza-aprendizaje. La IA no puede convertirse en el pretexto para mecanizar el pensamiento, a través de la rapidez y la eficacia de las tecnologías digitales que pueden llevarnos a considerar que un resultado no merece un proceso. Pensar, reflexionar, meditar, concebir una idea, tejer una red de conceptos, es un trabajo que necesita tiempo.

La naturaleza del pensar es procesual-inclusiva, ésta no excluye al pensamiento computacional. Este hacer requiere de tiempo y de otras ideas, puntos de vista y perspectivas. En este sentido, podemos vencer la batalla frente a lo nuevo y acelerado del avance tecnológico, y seguir guiando a la IA a mejores fines, no sólo como usuarios/as/es, sino también como creadores/as/es. Piénsese que hemos llegado a un colapso de las ideas y prácticas de dominio del mundo, agotar todos los recursos a la larga será acabar con nosotros/as mismos/as/es, de modo que, queda a estas generaciones usar las tecnologías para reparar, es decir, con una visión ética de resarcir todo el daño provocado.

Empecemos por fomentar aplicaciones éticas de las tecnologías digitales y de la IA, como una acción imperativa siendo que no hay una normativa que regule sus avances, y, evidentemente, éstos son más rápidos que los casos previstos en las leyes. Resulta evidente que la discusión no debería estar centrada en los aspectos legales como primer foco, aunque no lo excluye, si no en una educación ética de sus usos. El fomento de una convicción del no perjuicio, de la inclusión, del uso benéfico de la información, de una progresión que subsane las inequidades y los sesgos en su programación, distribución, acceso y aplicación. Esto sólo puede lograrse si constantemente cuestionamos nuestros comportamientos frente a la tecnología, así también, reflexionamos y denunciamos sus usos indebidos.

Foto: Pulso CCH Naucalpan
Notas
  1. Acceso y participación de las mujeres en los avances tecnológicos | UNESCO Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura. ↩︎
  2. Incursión de las mujeres en las ciencias STEM: Un saldo pendiente para la igualdad de género (unam.mx) ↩︎
  3. Estos datos pueden ser consultados en un artículo llamado I´d blush if I could, en español “Me sonrojo si puedo”. ↩︎
  4. La app para los ciclos menstruales más usada es Flo, ésta fue generada por varones, dos hermanos bielorrusos, la cual hila sus contenidos a partir de IA, Clue, por otro lado fue generada por una mujer y tiene beneficios económicos menores. ↩︎
  5. I´d blush if I could, disponible en: I’d blush if I could: closing gender divides in digital skills through education – UNESCO Biblioteca Digital ↩︎
  6. Prevención y visibilización de la violencia cibernética contra las mujeres y niñas ↩︎
  7. When Good Algorithms Go Sexist: Why and How to Advance AI Gender Equity (ssir.org) ↩︎
  8. De modo que se necesitan puntos de partida para juzgar los usos de la IA. Desde una democracia digital hasta el uso de los datos con perspectiva feminista y de género. De manera ilustrativa podría revisarse el Feminist Data. Manifest- no. Disponible en: Complete Version — Feminist Data Manifest- No (manifestno.com) ↩︎
  9.  SkinneePix for Android – App Download ↩︎
  10. ‘Apps’ sexistas (RSE) :: Compromiso RSE Se puede revisar este artículo sobre apps con carga sexista. También existen aquellas aplicaciones que denigran a las mujeres por sus cambios hormonales como ‘I am a Man’, que permite a los varones heterosexuales que la usan evitar citas con mujeres en su periodo menstrual. ↩︎
  11. Mexico | Everyday Sexism Project En este proyecto puedes narrar tus experiencias cotidianas de sexismo, las cuales son publicadas y leídas por todas aquellas mujeres que ingresen a la plataforma. ↩︎
  12. Puede revisarse el artículo: Barquet-Muñoz, José y José Carlos Vázquez Parra. 2021. «Pinkwashing turístico. Una aproximación desde la situación político-social de destinos rosa latinoamericanos». América Crítica 5 (1): 9-17. https://doi.org/10.13125/americacritica/4563 ↩︎

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *