Megha Mohan
Corresponsal de género e identidad, BBC World Service
Grit
Un asesinato horrible en su propia familia inspiró a la sudafricana Leonora Tima a crear una plataforma digital donde la gente, mayormente mujeres, puede hablar y rastrear el abuso.
La familiar de Leonora tenía solo 19 años y estaba embarazada de nueve meses cuando la mataron. Su cuerpo fue abandonado al lado de una autopista cerca de Ciudad del Cabo en el 2020.
“Yo trabajo en el sector del desarrollo, así que he visto violencia”, dice Leonora. “Pero lo que me impactó fue que la muerte violenta de mi familiar fue vista como algo tan normal en la sociedad sudafricana.”
“Su muerte no fue publicada por ningún medio de noticias porque el volumen de estos casos en nuestro país es tan alto que no califica como noticia.”
El asesino nunca fue atrapado y lo que Leonora vio como la aceptación silenciosa de la muerte violenta de una mujer se convirtió en el catalizador para su aplicación, Gender Rights in Tech (Grit), que incluye un chatbot llamado Zuzi.
Esta es una de las primeras herramientas de inteligencia artificial gratuitas hechas por creadores africanos para enfrentar la violencia de género.
“Esta es una solución africana co-diseñada con comunidades africanas”, dice Leonora.
El objetivo es ofrecer apoyo y ayudar a reunir evidencia que podría ser usada después en casos legales contra los abusadores.
La iniciativa está ganando interés entre activistas internacionales de los derechos de la mujer, aunque algunos advierten que los chatbots no deben usarse para reemplazar el apoyo humano, enfatizando que las sobrevivientes necesitan empatía, comprensión y conexión emocional que solo un profesional entrenado puede proporcionar.
Leonora y su pequeño equipo visitaron comunidades en los townships cerca de su hogar en Ciudad del Cabo, hablando con residentes sobre sus experiencias de abuso y cómo la tecnología encaja en sus vidas.
Preguntaron a más de 800 personas cómo usaban sus teléfonos y redes sociales para hablar sobre violencia, y qué les impedía buscar ayuda.
Leonora encontró que la gente quería hablar de su abuso, pero “desconfiaban de las rutas tradicionales como la policía”.
“Algunas mujeres publicaban sobre esto en Facebook e incluso etiquetaban a su abusador, solo para recibir después una demanda por difamación”, dice ella.
Ella sintió que los sistemas existentes fallaban a las víctimas dos veces: primero al no prevenir la violencia misma, y luego cuando las víctimas intentaban denunciar.
Con apoyo financiero y técnico de Mozilla, la Fundación Gates y la Fundación Patrick McGovern, Leonora y su equipo comenzaron a desarrollar Grit, una app móvil que podría ayudar a las personas a registrar, reportar y obtener una respuesta al abuso mientras está ocurriendo.
La aplicación es gratuita, aunque requiere datos móviles para descargarla. El equipo de Leonora dice que tiene 13,000 usuarios y recibió unas 10,000 solicitudes de ayuda en septiembre.
En su esencia, Grit está construida alrededor de tres características clave.
En la pantalla principal hay un gran botón de ayuda circular. Cuando se presiona, automáticamente comienza a grabar 20 segundos de audio, capturando lo que pasa alrededor del usuario. Al mismo tiempo, activa una alerta a un centro privado de respuesta rápida —las empresas de respuesta profesional son comunes en Sudáfrica— donde un operador entrenado llama al usuario.
Si la persona que llama necesita ayuda inmediata, el equipo de respuesta envía a alguien al lugar o contacta a una organización local que pueda auxiliar a la víctima.
La aplicación fue construida con las necesidades de los sobrevivientes de abuso en el centro, dice Leonora: “Necesitamos ganarnos la confianza de la gente. Estas son comunidades que son frequentemente ignoradas. Les estamos pidiendo mucho a las personas cuando se trata de compartir datos.”
Grit
Zuzi ha sido creado con la ayuda de mujeres en las comunidades alrededor de Ciudad del Cabo
Cuando se le pregunta si la función de ayuda ha sido mal utilizada, ella admite que ha habido algunos pulsaciones por curiosidad —gente probando si realmente funciona— pero nada que ella llamaría un abuso del sistema.
“La gente es cautelosa. Nos están probando a nosotros tanto como nosotros probamos la tecnología”, dice.
El segundo elemento de Grit es “la bóveda”, que Leonora describe como un espacio digital seguro donde los usuarios pueden guardar evidencia del abuso, fechada y encriptada, para un posible uso posterior en procesos legales.
Fotos, capturas de pantalla y grabaciones de voz pueden ser subidas y guardadas de forma privada, protegiendo evidencia crucial de ser eliminada o manipulada.
“A veces las mujeres toman fotos de sus heridas o guardan mensajes amenazantes, pero esos se pueden perder o borrar”, dice Leonora. “La bóveda significa que la evidencia no está solo en un teléfono que podría ser quitado o destruido.”
Este mes, Grit se expandirá nuevamente con el lanzamiento de su tercera característica: Zuzi, un chatbot con inteligencia artificial diseñado para escuchar, aconsejar y guiar a los usuarios hacia el apoyo comunitario local.
“Le preguntamos a la gente: ‘¿Debería ser una mujer? ¿Debería ser un hombre? ¿Debería ser un robot? ¿Debería sonar como un abogado, un trabajador social, un periodista u otra figura de autoridad?'”, explica Leonora.
La gente les dijo que querían que Zuzi fuera “como una tía” —alguien cálida y confiable, en quien pudieran confiar sin miedo a ser juzgadas.
Grit
Leonora (derecha) y sus colegas en Grit dicen que su trabajo da a las mujeres un sentido de control sobre el abuso
Aunque fue construido principalmente para mujeres que sufren abuso, durante la fase de prueba, Zuzi también ha sido usado por hombres buscando ayuda.
“Algunas conversaciones son de perpetradores, hombres que le piden a Zuzi que les enseñe cómo obtener ayuda con sus problemas de ira, que a menudo dirigen hacia sus parejas”, explica Leonora. “También hay hombres que son víctimas de violencia y han usado a Zuzi para hablar más abiertamente de su experiencia.
“A la gente le gusta hablar con la IA porque no se sienten juzgados por ella”, añade. “No es un humano.”
ONU Mujeres reporta que Sudáfrica experimenta algunos de los niveles más altos del mundo de violencia de género, con una tasa de femicidio que es cinco veces mayor que el promedio global. Entre 2015 y 2020, un promedio de siete mujeres fueron asesinadas cada día, según la policía sudafricana.
Muchos, incluyendo a Lisa Vetten, una especialista en violencia de género en Sudáfrica, coinciden en que es inevitable que la tecnología juegue un papel en abordarla.
Pero ella también advierte sobre tener cuidado con el uso de la IA en la atención centrada en trauma.
“Yo los llamo Modelos de Lenguaje Grande, no inteligencia artificial, porque se dedican al análisis lingüístico y la predicción —nada más”, dice.
Ella puede ver cómo los sistemas de IA pueden ayudar, pero conoce ejemplos donde otros chatbots de IA han dado consejos incorrectos a mujeres.
“Me preocupa cuando le dan a las mujeres respuestas muy confiadas a sus problemas legales”, dice. “Los chatbots pueden proporcionar información útil, pero son incapaces de lidiar con dificultades complejas y multifacéticas. Lo más importante es que no son un substituto para el asesoramiento humano. Las personas que han sido dañadas necesitan ayuda para confiar y sentirse seguras con otros seres humanos.”
@judith.Litvine/MEAE
Lyric Thompson quiere que más mujeres estén involucradas en el desarrollo de la IA
El enfoque de Grit ha atraído atención internacional.
En octubre, Leonora y su equipo presentaron su aplicación en la Conferencia de Política Exterior Feminista organizada por el gobierno francés en París, donde líderes globales se reunieron para discutir cómo la tecnología y las políticas pueden usarse para construir un mundo con más igualdad de género. En la conferencia, 31 países firmaron un compromiso para hacer del enfrentamiento a la violencia de género una prioridad política clave.
Las conversaciones sobre el uso de la IA están en auge, dice Lyric Thompson, fundadora y directora de la Colaborativa de Política Exterior Feminista, “pero en el momento en que intentas incluir el género en la conversación, para señalar los peligros de que se incorporen prejuicios racistas, sexistas y xenófobos, los ojos se vidrian y la conversación cambia —probablemente a un pasillo de atrás donde no haya mujeres molestas para mencionarlo”.
Heather Hurlburt —una asociada en Chatham House, especializada en IA y su uso en tecnología— concuerda en que la IA “tiene un potencial enorme para ayudar a identificar y remediar la discriminación de género y la violencia basada en género, o para afianzar la misoginia y la inequidad”, pero añade que el camino que tomemos “depende mucho de nosotros”.
Leonora tiene claro que el éxito de la IA para enfrentar la violencia de género depende no solo de la ingeniería, sino de quiénes llegan a diseñar la tecnología en primer lugar.
Un reporte del Foro Económico Mundial del 2018 encontró que solo el 22% de los profesionales de IA a nivel global eran mujeres, una estadística que todavía se cita a menudo.
“La IA como la conocemos ahora ha sido construida con datos históricos que centran las voces de los hombres, y de hombres blancos en particular”, dice Leonora.
“La respuesta no es solo tener más mujeres creadoras. También necesitamos creadoras que sean mujeres de color, más del sur global, y más de entornos socioeconómicos menos privilegiados.”
Solo entonces, concluye Leonora Tima, la tecnología puede comenzar a representar las realidades de quienes la usan.
También te puede interesar:
Getty Images/BBC
