
Potó de Alexander Grey en Pexels
Con cada año que pasa, la inteligencia artificial (IA) parece volverse cada vez más imprescindible en nuestra vida. Los pros y los contras de esta innovación se son cada vez más conocidos en todo el mundo. También se comienzan a ver las posibles ventajas de su uso. Recientemente, una encuesta global de la firma de investigación de mercado Ipsos reveló que el 55% de los participantes sintió que las soluciones provistas por la IA ofrecen más beneficios que inconvenientes. Estos resultados dejan en claro que, a pesar de la ansiedad que rodea el uso de esta tecnología, el público sigue intrigado sobre lo que la IA puede hacer. Las compañías lo han tenido en cuenta y destacan su eficiencia y uso para vender sus productos. Por cómo ha crecido la inversión privada en IA en la última década, la evidencia sugiere que los consumidores se han creído ese discurso.
Sin embargo, no convenció a todo el mundo. Por ejemplo, los miembros de la comunidad LGTBQ+ han prestado más atención a las desventajas asociadas a la IA. Varios problemas se originan en datos utilizados para entrenar a los modelos, que suele contener estereotipos y conceptos erróneos sobre la comunidad LGTBQ+. Aun así, el impacto fuera de línea de la IA pueden ser igual de alarmantes. Incorporar tecnología en sistemas diseñados específicamente para identificar y vigilar a los miembros de la comunidad, por ejemplo, es otra de las primeras cosas que vienen a la mente. Desde desarrollo a la utilización, estos temas demuestran que las herramientas que utilizan IA suelen ser más dañinas que útiles para la comunidad LGTBQ+. Sin barreras apropiadas para usar esta tecnología, muchos podrían pensar que es considerablemente más dañina que valiosa.
Digitalización de estereotipos establecidos
Para entender cómo la IA puede afectar negativamente a la comunidad LGTBQ+ es importante empezar con datos que alimentan los modelos. «Wired» destacó que, cuando se le pidió representar a los miembros de esta comunidad, las herramientas populares de generación de imágenes produjeron resultados reduccionistas. Por ejemplo, Midjourney mostraba siempre mujeres lesbianas como figuras severas con varios tatuajes. Es posible que los culpables de estas representaciones hipersimplificadas (y ofensivas) sobre la vida queer sean los datos desperdigados en las redes. Gran parte de la información disponible sobre los modelos de la comunidad LGTBQ+ está influenciada por estereotipos. Como resultado, es altamente probable que soluciones como Midjourney reproduzcan estos sesgos en sus imágenes. Si bien las soluciones provisorias, como mejorar el etiquetado de datos, puede mejorar la exactitud del modelo, pueden resultar insuficientes por la gran cantidad de contenido ofensivo que hay en línea.
Los retratos erróneos de la comunidad LGTBQ+ que producen las IA no son un caso aislado. Ciertamente, muchas de las IA que dominan el mercado generan resultados sesgados contra este grupo. En un informe sobre los supuestos rectores que definen los macromodelos lingüísticos, la UNESCO identificó cómo ciertas herramientas ampliamente utilizadas, como Llama 2 de Meta y OpenAI’s GPT-2, están claramente moldeadas por actitudes heteronormativas. Según su investigación, estos macromodelos crearon contenido negativo sobre las personas gay en más de la mitad de sus simulaciones. Los hallazgos de la UNESCO no solo recalcan la homofobia dominante al entrenar datos consumidos por soluciones de IA que generan contenido; también demuestran la incapacidad de los grandes programadores de abordar de manera efectiva este asunto tan importante.
Mejora de la vigilancia pública
El daño que la IA puede infligir a las personas de la comunidad LGBTQ+ no se limita al espacio digital. Los sistemas que utilizan IA que supuestamente detectan el género de quienes están en espacios públicos han llamado mucho la atención. Forbidden Colours, ONG belga que defiende los derechos LGTBQ+, explicó las problemáticas consecuencias de las herramientas de IA de «reconocimiento automático de género». Este tipo de herramientas analiza contenido audiovisual, como grabaciones de cámaras de seguridad y patrones vocales. Estos sistemas innovadores son inherentemente problemáticos. Como declaró la organización, es imposible detectar cómo alguien se autopercibe con únicamente estudiar cómo se ve o cómo habla. Teniendo en cuenta esto, crear soluciones que clasifiquen a las personas utilizando estas características arbitrarias no sólo es erróneo, también es peligroso.
A pesar de estas diferencias evidentes, los sistemas de reconocimiento automático de género tienen defensores. En particular, son los Gobiernos abiertamente antagonistas a la comunidad LGBTQ+ los que han adoptado usar estas herramientas, ya que varios justificaron sus decisiones en nombre de la seguridad publica. Por ejemplo, Politico Europe informó que el primer ministro húngaro, Viktor Orbán, autorizó usar vigilancia biométrica con IA durante las actividades locales de la marcha del Orgullo. El político de extrema derecha declaró que con medidas adoptadas para proteger a los niños de la agenda LGBTQ+. La realidad es que esto permite a los políticos y a sus aliados legales vigilar a artistas, a activistas y a ciudadanos promedio en este tipo de reuniones. Si bien esta política la están revisando instituciones de la Unión Europea, implementarla sirve como severo recordatorio de cómo se puede utilizar IA para intimidar a los líderes de la comunidad LGBTQ+ que se movilizan por el cambio.
Cambio de ecuación
Para los miembros de la comunidad LGBTQ+, las compensaciones relacionadas con la IA son muy elevadas. Si bien esta tecnología innovadora puede ser una red positiva para la mayor parte de la población, presenta dificultades específicas que pueden impactar desproporcionadamente a los usuarios queer. Las herramientas comunes, como las que generan texto o imágenes, han estado recirculando temas dañinos sobre la vida LGTBQ+ que son realmente difíciles de eliminar del todo. Por fuera del ámbito digital, el uso de la IA en espacios fuera de línea también implica significativos riesgos. Incorporar la IA en sistemas de vigilancia, en ocasiones con el objetivo explícito de etiquetar los géneros de aquellos atrapados en la redada, representa una violación a la privacidad individual. Todos estos ejemplos demuestran que varias de las soluciones de IA, que han transformado nuestras experiencias diarias, no se han diseñado con todas las personas en mente.
Los líderes del sector tienen que tomar medidas para revertir esta tendencia. Para empezar, deben formar alianzas con los programadores y las partes interesadas de la comunidad LGBTQ+. La colaboración constructiva puede ayudar a asegurar que los datos que se utilizan para entrenar la IA reflejen las realidades que viven los miembros de la comunidad LGBTQ+ de manera mas acertada. También debería incluir resguardos sólidos para evitar que se use mal IA para vigilar a la comunidad. Los sistemas equipados con detección de género deben quedar estrictamente prohibidos, ya que van contra el derecho a la privacidad individual. De manera crucial, se debería solicitar la participación de personas LGBTQ+ en todas las etapas del ciclo de desarrollo de la herramienta. Está cooperación no solo mitigaría los numerosos daños causados por la IA, también incrementaría la posibilidad de que los miembros de esta comunidad comiencen a ver la tecnología como un valor agregado.








