Ir al contenido principal

Por una Inteligencia Artificial antirracista

El trabajo de Aqualtune Lab 

Por Maira Carvalho


Para alertar a la poblaci贸n sobre la relaci贸n entre tecnolog铆a y racismo, el colectivo jur铆dico Aqualtune Lab viene promoviendo en todo Brasil formaci贸n online sobre los efectos del uso de la Inteligencia Artificial en la vida de la poblaci贸n negra. Desde el reconocimiento facial hasta los filtros utilizados en las redes sociales, todo se hace mediante algoritmos que simulan el razonamiento humano a partir de patrones aprendidos. 
Por eso es importante estar alerta: los algoritmos pueden reproducir comportamientos prejuiciosos, influyendo en decisiones que perjudican especialmente a la poblaci贸n negra. Los cursos de formaci贸n est谩n dirigidos a organizaciones del tercer sector, con informaci贸n tanto del 谩mbito del Derecho como de las tecnolog铆as de la informaci贸n. Por ejemplo, Aqualtune Lab forma parte de la Coalici贸n Negra por los Derechos y de la Coalici贸n por los Derechos en la Red. “Cuando hablamos de tecnolog铆a, la mayor铆a de la gente no pone objeciones, piensa que la tecnolog铆a es buena en s铆 misma. Pero lo que marcar谩 la pauta del uso de la tecnolog铆a son las relaciones sociales. Es una agenda que transmite una neutralidad que no existe y que afecta principalmente a la poblaci贸n negra m谩s vulnerable”, afirma la abogada y codirectora Clarissa Fran莽a. Las formaciones del Aqualtune Lab muestran que el racismo es un fen贸meno social que se actualiza a trav茅s de las nuevas tecnolog铆as y que puede ser muy sutil. En las redes sociales, por ejemplo, los filtros que alteran las im谩genes en el entorno virtual tienen consecuencias en el mundo real. “Los filtros blanquean a las personas. Esto refuerza la idea de que embellecer a una persona significa parecer m谩s joven y con rasgos m谩s finos, actualizando conceptos que ya 铆bamos camino de superar. Es una forma de mantener la jerarqu铆a entre las personas, de lo que es bueno y lo que es malo, lo que es bello y lo que es feo”, dice Clarissa.Adem谩s de los cursos de formaci贸n, la organizaci贸n tambi茅n elabora el llamado Documento Negro, un an谩lisis de la Inteligencia Artificial y el racismo que pretende orientar la construcci贸n de leyes que regulen la tecnolog铆a. Entre las recomendaciones est谩n la prohibici贸n del reconocimiento facial por parte de la seguridad p煤blica, la exclusi贸n de las armas aut贸nomas y la cautela en el uso de la IA para definir el acceso a los servicios de salud. “Nuestra polic铆a es una de las m谩s mort铆feras del mundo. Y la mayor铆a de las veces, el racismo victimiza a la poblaci贸n negra. Por eso estamos en contra del reconocimiento facial y de la liberaci贸n de armas aut贸nomas. Utilizar la IA para definir qui茅n tendr谩 acceso a una cama de hospital, a un medicamento, etc., tambi茅n supone grandes riesgos para esta poblaci贸n”, advierte.Clarissa Fran莽a es abogada especializada en derecho sanitario. Su activismo tiene su origen en el movimiento estudiantil negro. Nacida en Sergipe, ingres贸 en la primera promoci贸n con cuotas raciales de Brasil, en la Facultad de Derecho de la Universidad Estatal de R铆o de Janeiro (UERJ). “La UERJ no estaba preparada para recibirnos, as铆 que creamos un colectivo de estudiantes negros llamado Denegrir. Eso fue en 2003. Me licenci茅 y volv铆 a Aracaju. Desde entonces, siempre he estado activa en el movimiento de mujeres negras”.

Cuenta que poco despu茅s de la publicaci贸n de la Ley General de Protecci贸n de Datos Personales (LGPD), en 2018, se dio cuenta de que la discusi贸n sobre el tema se limitaba a una peque帽a parte de la poblaci贸n y no inclu铆a a la poblaci贸n negra. “Pens茅: ¿por qu茅 no estamos discutiendo esto? As铆 que me reun铆 con algunas personas y empezamos a hablar. Creamos un grupo llamado Protecci贸n de Datos y Racismo y acabamos conociendo a gente como Tarc铆zio Silva y Bianca Kremer, expertos en el debate.” 

“Eso fue en 2020. Era una 茅poca de pandemia, con muchos problemas pol铆ticos, varios retrocesos, muchas cosas debilit谩ndose por la l贸gica de internet y el uso de los datos. Y en aquella 茅poca, igual que hoy, hab铆a cuestiones pragm谩ticas. La poblaci贸n negra ten铆a que sobrevivir, trabajar, comer… Pero cada vez m谩s, todas estas cuestiones relacionadas con los derechos fundamentales se abordan a trav茅s de la tecnolog铆a. Fue entonces cuando creamos Aqualtune Lab”, recuerda.Para Clarissa, la falta de informaci贸n sobre el uso de la tecnolog铆a, la forma en que se utilizan los datos generados y la falta de acceso universal a Internet en Brasil son algunos de los problemas asociados a la tecnolog铆a que hay que resolver. Necesitamos regular, por ejemplo, el derecho del p煤blico a ser informado sobre el uso de im谩genes y datos. Un caso bien conocido es cuando damos nuestro CPF para obtener un descuento en la farmacia y estos datos se venden sin consentimiento a empresas que hacen publicidad dirigida. O cuando caminamos por una calle vigilada por c谩maras sin saber que existen. O cuando estas c谩maras prometen garantizar la seguridad, pero en realidad filman los h谩bitos de consumo de la gente, que luego se venden. “La econom铆a actual se basa en los datos y estamos poniendo todos nuestros datos en plataformas de empresas extranjeras. No tenemos ning煤n control sobre lo que se hace con estos datos y probablemente se utilizar谩n para crear nuevos productos y vend茅rnoslos a nosotros mismos”, advierte. Seg煤n la abogada, la vigilancia ostentosa por parte de la IA en nombre de la seguridad se ha vuelto cada vez m谩s com煤n, pero sin resultados efectivos. “Los 铆ndices de violencia son mucho m谩s consecuencia de la desigualdad y las condiciones de vida que de las tecnolog铆as represivas. As铆 que la promesa de seguridad es una falacia. De hecho, s贸lo viola el derecho a la intimidad y la libertad de las personas”.Clarissa se帽ala que los errores de reconocimiento facial, por ejemplo, se dan m谩s a menudo con personas negras. Esto se debe a que la tecnolog铆a tiene un alto 铆ndice de error, ya que se desarroll贸 a partir de una base de datos de poblaciones m谩s uniformes. “Brasil no desarroll贸 esta tecnolog铆a, importamos una tecnolog铆a hecha en Alemania”. 

Recuerda un caso que tuvo lugar en un estadio de f煤tbol de Sergipe, donde vive. “Detuvieron a un chico negro en medio del partido utilizando el reconocimiento facial, que luego result贸 ser defectuoso. Fue esposado en medio del partido, escoltado a la salida por agentes de polic铆a, pero no hab铆a cometido ning煤n delito. Es m谩s, en ning煤n momento se inform贸 a los aficionados de que estaban siendo vigilados”, afirma la codirectora de Aqualtune. 

ARCHIVOS

Mostrar m谩s


OTRA INFORMACI脫N ES POSIBLE

Informaci贸n internacional, derechos humanos, cultura, minor铆as, mujer, infancia, ecolog铆a, ciencia y comunicaci贸n

ElMercurioDigital.es, editado por mercurioPress/El Mercurio de Espa帽a bajo licencia de Creative Commons. Medio independiente propiedad de 脕ngel Rojas Penalva
©Desde 2002 en internet
Otra informaci贸n es posible