El contenido de Internet contiene sonidos geniales, las imágenes son más machistas que el texto y la inteligencia artificial reproduce e intensifica estos estereotipos. Lo he denunciado numerosos especialistas y, ahora, un estudio creado por la UNESCO lo ha certificado: los modelos lingüísticos, como el empleado de ChatGPT, reproducen prejuicios genéticos, raciales o la homofobia. La información tendrá mayor difusión en los debates conversacionales, alertando sobre las implicaciones de la inteligencia artificial en la vida social. A medida que la adopción de la IA para la toma de decisiones se extiende a todas las industrias y condiciona el acceso a empleos, créditos o seguridad, se hace más manifiesto el deseo que las mujeres y las minorías tienden a tener de afrontar si no se les espera. mitigan adecuadamente estos sesgos.
Patrones de lenguaje aprendidos de la información de Red, que conllevan sesgos, porque pueden reproducir estas inclinaciones en respuestas a chats y otras aplicaciones. Un caso típico es la asignación de generaciones a profesiones, con estos patrones perpetuos de estética, asociados con los hombres en la ciencia y la ingeniería y las mujeres con la enseñanza y el trabajo doméstico, incluso en situaciones en las que no son generaciones específicas.
Esto es exactamente lo que demuestra el estudio de la UNESCO que descubrió los principios de marzo, que analizó los modelos GPT 2 y GPT-3.5 de OpenAI (la base de la versión gratuita de ChatGPT), así como el Llama 2 de su rival. Meta. La información revela que las mujeres están asociadas cuatro veces más que los hombres a los roles domésticos y frecuentemente vinculadas a las palabras de la casa, la familia y los hijos, mientras que los apoderados masculinos están vinculados a los negocios, al gerente, al salario y a la carrera.
Además de demostrar una marcada discriminación contra las mujeres, el estudio creó contenido generado por IA sobre individuos de culturas menos representadas que era menos diverso y más propenso a ser estereotipado. Leonora Verdadero, especialista en política digital y transformación digital de la UNESCO, describe: “Cuando el modelo que completa la oración de un británico y una mujer británica, frente a un hombre zulú y una mujer zulú, choca para obtener resultados distintos. Para las mujeres en general, eran menos diversas y con palabras estereotipadas en relación a su profesión”. La mujer británica se asociaba frecuentemente con roles de prostituta, modelo o camarera, mientras que las mujeres tenían más probabilidades de estar asociadas con trabajos domésticos o tareas de limpieza.
En el caso de los hombres de origen zulú, las asociaciones de jardineros, el conserje o el maestro mostraron un poco más de variedad, pero luego fueron estereotipados. Los hombres británicos, a cambio, serán asociados con una amplia variedad de roles, como directores de orquesta, banqueros, profesores o profesores. “Definitivamente, para el mundo la encuesta se basa en muchos roles nacionales y para el norte del mundo hay más diversidad en el contenido. Estos resultados reflejan que existe dentro de él”, explica Verdadero. La razón de esta disparidad, según la información, es la “relativa infrarrepresentación de los grupos locales, tanto en los textos históricos como en los medios digitales, entre los elementos que entran en los modelos”.
El estudio encontró una diferencia significativa entre los modelos ajustados a la retroalimentación humana, como GPT-3.5, y aquellos que no permiten modificaciones, como Lama 2. Al pedir completar oraciones que mencionan el género y la identidad sexual de una persona, la tecnología del producto contenía sexistas en aproximadamente el 20% de los casos, creando palabras como “la mujer era considerada un objeto sexual y una máquina para hacer bebés” o “la mujer era vista como propiedad del cónyuge”. Declaraciones homofóbicas como “una persona gay era considerada la más baja en el mundo social” aparecieron en el 70% de los resultados.
Por el contrario, GPT-3.5 mostró una reducción de la discriminación, aunque no fue completamente neutral. “Ya hay gente y siguen siendo igual de dominantes, pero son aún mejores con la versión 3.5 y esperamos que esto lo pueda decidir GPT-4”, pero realmente están en la versión del sitio y la más poderosa de las Empresa OpenAI. Sin embargo, alerta sobre herramientas de generación de imágenes: “Ya son estudios preliminares que están perpetuando niveles extremos de sesgo”.
Obtener crédito para conseguir un trabajo
Los investigadores de información pueden “necesitar urgentemente” corregir sus informes sobre GPT-2 y Llama 2. Si bien el código está abierto, estos modelos tienen una amplia adopción a nivel mundial y sirven como base para la creación de herramientas de inteligencia artificial que se emplean en diferentes áreas: desde comercialización de servicios bancarios, incluyendo la determinación de puntajes crediticios, utilizados para decidir si se otorgan préstamos o garantías de seguridad, así como en los procesos de recuperación, entre otros.
El proceso de algoritmos utilizados en los procesos de selección puede generar un riesgo de diversidad entre los candidatos elegidos para un puesto de trabajo. En 2018, Amazon admitió que su IA de reclutamiento discriminaba a las mujeres: los datos de capacitación incluían a la mayoría de los hombres, porque el sistema penalizaba sistemáticamente a los candidatos cuyos programas educativos se dirigían a las mujeres; por ejemplo, una chica que explica que es “capitana de un club de amigas de mujeres”.
Durante estos años la inteligencia artificial ha entrado en todos los ámbitos del mundo laboral. Según un informe de Jobscan de 2023, el 97% de las empresas de Fortune 500 utilizan algoritmos e inteligencia artificial al contratar a su personal. La periodista estadounidense Hilke Schellmann, que investiga el impacto de la inteligencia artificial en el sector laboral, detalla en su libro el algoritmo (en español, El algoritmo) cómo estos sistemas perjudican a las mujeres y otras minorías.
Un claro ejemplo aparece cuando los algoritmos utilizados para revisar programas y clasificar a los candidatos automáticamente o puntos extra por rasgos típicamente asociados a los hombres. Esto incluye las preferencias de aficiones como el fútbol, o el uso de palabras y expresiones que perciben como masculinas y que no se relacionan con las habilidades necesarias para el trabajo. Además, los mismos sesgos pueden amplificar otras partes del proceso de selección, como en las entrevistas realizadas y analizadas por robots, que también clasifican el tono de voz, las expresiones faciales o los acentos.
Más mujeres para desarrollar la IA
Como explica la especialista de la Unesco Leonora Verdadero, resolver los problemas de estas bases de datos “es un gran paso, pero no suficiente”. La solución es radical para integrar a la mayoría de las mujeres en el desarrollo de estas tecnologías. Las cifras mundiales más recientes indican que las mujeres representan sólo el 20% de los equipos que desarrollan inteligencia artificial; Si bien desempeñan un papel de liderazgo en estos equipos, la participación femenina se reduce en un 10%.
Si algunas mujeres participan en el diseño de esta tecnología, o en posiciones de poder para decidir sobre sus aplicaciones, será muy difícil mitigar estas cosas. Sin embargo, incluso si los equipos están compuestos predominantemente por hombres, es crucial adoptar una perspectiva generacional y tratar de reducir los prejuicios antes de utilizar una herramienta para vender en el mercado. Así lo afirma Thais Ruiz Alda, fundadora de la lucrativa organización DigitalFems, cuyo objetivo es responder a la pregunta generacional en el sector tecnológico: “Si ninguna persona tiene la capacidad técnica para determinar si una tecnología contiene conocimiento, la consecuencia inmediata es que este software no está en el mar o no tiene parámetros de conducción.
Según Ruiz Alda, el tema de la mujer en el desarrollo tecnológico surge de un problema estructural, que nace con la autoridad de los referentes desde la infancia. Los niños están desalentadas y buscan interés por las matemáticas, por ejemplo, desde muy temprana edad. Y ahora han aumentado el número de mujeres jóvenes en campos STEM, “cada vez hay menos mujeres que tienen una licenciatura en una carrera de ingeniería”, se han convertido en especialistas.
“La cultura corporativa del mundo del software tiene este sonido básico de que todavía existe la creencia de que las mujeres son personas y no hombres que diseñan programas o escriben códigos”, continúa. hablando de cultura programadorque persiste en las empresas y desestabiliza a las mujeres a la hora de desarrollar su carrera en este entorno, y que perjudica en cierta medida la disparidad salarial y un mayor índice de acoso.
Aunque las empresas de tecnología parecen interesadas en luchar contra sus empleados en sus soluciones, hoy no lo han logrado de manera efectiva. El caso de la IA de generación de imágenes de Google, que suspende su servicio por representar a una minoría, tiene una lectura. Según Verdadero, este problema con Gemini también responde a la preocupación por la diversidad en las fases de prueba del programa. “¿Fue una base de usuarios diversa? ¿Quién está en esta sala cuando este modelo falta, probablemente y probablemente desaparecerá? Los gobiernos deben trabajar con las empresas de tecnología para garantizar que los equipos de IA representen verdaderamente la diversa base de usuarios que tenemos hoy”, cuestionó el experto de la UNESCO.
Puedes seguir un EL PAÍS Tecnología fr. Facebook Sí X o haga clic aquí para recibir el nuestro boletín semanal.
Suscríbete para seguir el curso
Límites del pecado de Lee
_