Ir al contenido principal

Amnistía Internacional presenta un conjunto deherramientas de Rendición de Cuentas sobre el Uso de Algoritmos

Para que personas investigadoras, defensoras de los derechos humanos y activistas obliguen a los actores poderosos a rendir cuentas por los daños facilitados por la IA:

AI-toolkit-5.png

Según ha manifestado hoy Amnistía Internacional con motivo de la próxima presentación de su conjunto de herramientas de Rendición de Cuentas sobre el Uso de Algoritmos, con el uso generalizado de sistemas de inteligencia artificial y toma de decisiones automatizada que afectan a nuestra vida diaria, es esencial equipar a los defensores y defensoras de los derechos humanos, activistas y comunidades con herramientas que les permitan arrojar luz sobre las graves implicaciones para los derechos humanos que dichos sistemas acarrean.

El conjunto de herramientas se basa en las  investigaciones,  campañas y trabajo de incidencia y con medios de comunicación de Amnistía Internacional en  Dinamarca,  Suecia,  Serbia,  Francia,  India,  Reino Unido, el  Territorio Palestino Ocupado  (TPO),  Estados Unidos  y  Países Bajos. Proporciona una guía práctica para investigar, sacar a la luz y exigir rendición de cuentas por los daños derivados de los sistemas algorítmicos que cada vez están más integrados en nuestra vida cotidiana, concretamente en los ámbitos del sector público relacionados con las prestaciones sociales, la función policial, la sanidad y la educación.

Con independencia de la jurisdicción en la que se implementen estas tecnologías, su despliegue no suele dar como resultado sociedades más “eficientes” o “mejores”, como arguyen numerosos funcionarios gubernamentales y empresas, sino más bien sesgos, exclusión y abusos contra los derechos humanos.

“El conjunto de herramientas está destinado a cualquier persona que desee investigar o cuestionar el uso de sistemas algorítmicos e inteligencia artificial en el sector público, incluidas organizaciones de la sociedad civil, periodistas, personas afectadas u organizaciones comunitarias. Está diseñado de manera que se puede adaptar a diversos entornos y contextos.

“Es esencial que hagamos crecer nuestra capacidad colectiva de investigar y exigir rendición de cuentas por los sistemas de IA nocivos, a fin de impugnar las prácticas abusivas de los Estados y las empresas y de responder al momento actual de inversión masiva en IA. Hay que tener en cuenta que estos sistemas pueden permitir la vigilancia masiva, socavar nuestro derecho a la protección social, restringir nuestra libertad de protesta pacífica y perpetuar la exclusión, la discriminación y los prejuicios en toda la sociedad”, manifestó Damini Satija, directora de Programa de Amnesty Tech.

El conjunto de herramientas presenta un enfoque múltiple basado en las conclusiones de las investigaciones realizadas por Amnistía Internacional en este ámbito durante los últimos tres años, así como en las lecciones aprendidas de diversas colaboraciones con socios clave. Este enfoque no solo proporciona herramientas y plantillas prácticas para investigar estos sistemas opacos y las violaciones de los derechos humanos a las que dan lugar, sino que también establece un conjunto integral de tácticas dirigido a quienes trabajan para poner fin a estos sistemas abusivos procurando el cambio y la rendición de cuentas a través de campañas, comunicaciones estratégicas, trabajo de incidencia o litigio estratégico.

Uno de los muchos casos prácticos en los que se basa el conjunto de herramientas es la investigación de Amnistía Internacional sobre el sistema de bienestar de Dinamarca. La investigación expone el hecho de que el sistema de bienestar social basado en la inteligencia artificial que utiliza la autoridad danesa de bienestar social, Udbetaling Danmark (UDK), estimula la vigilancia masiva y conlleva el riesgo de discriminar a las personas con discapacidad, de bajos ingresos, migrantes, refugiadas y a los grupos raciales marginados mediante el uso de herramientas de inteligencia artificial que señalan a personas para que se las investigue por fraude a las prestaciones sociales. La investigación no habría sido posible sin la colaboración de las comunidades afectadas, periodistas y organizaciones locales de la sociedad civil. Es por ello por lo que el conjunto de herramientas es producto de la estrecha colaboración entre diferentes grupos disciplinarios.

El conjunto de herramientas sitúa la legislación sobre derechos humanos como un componente de gran valor para la labor de rendición de cuentas sobre el uso de algoritmos, especialmente teniendo en cuenta que existe una laguna en el campo de la IA ética y responsable y en los métodos de auditoría. En última instancia, el método de Amnistía Internacional hace hincapié en el trabajo colaborativo, al tiempo que aprovecha la influencia colectiva de un enfoque multimétodo. Las comunidades y su capacidad de acción para impulsar la rendición de cuentas siguen siendo un aspecto central del proceso.

“Esta cuestión es aún más urgente hoy en día, dadas las aseveraciones y los experimentos que se hacen de forma generalizada y sin control en torno a los supuestos beneficios del uso de la IA en la prestación de servicios públicos. Los actores estatales están respaldando enormes inversiones en el desarrollo y la infraestructura de la IA y dando a las empresas carta blanca para que persigan sus intereses lucrativos, independientemente de las repercusiones que esto tenga sobre los derechos humanos ahora y en el futuro”, afirmó Damini Satija.

“Con este conjunto de herramientas, pretendemos democratizar el conocimiento y permitir que organizaciones de la sociedad civil, equipos investigadores, periodistas y personas afectadas destapen estos sistemas y las industrias que los producen, exijan rendición de cuentas y pongan fin a los abusos que estas tecnologías posibilitan.”

Amnistía Internacional ha realizado trabajo de investigación e incidencia sobre la automatización y digitalización del sector público y los riesgos y consecuencias para los derechos humanos de la toma de decisiones algorítmica en Dinamarca, Francia, Países Bajos, India y Serbia.

La campaña en curso de Amnistía Internacional Veto al escaneo pide que se prohíba el uso de tecnología de reconocimiento facial. La campaña se basa en la investigación y el trabajo de incidencia realizados por la organización en el Territorio Palestino Ocupado, Nueva York y Hyderabad.





ARCHIVOS

Mostrar más


OTRA INFORMACIÓN ES POSIBLE

Información internacional, derechos humanos, cultura, minorías, mujer, infancia, ecología, ciencia y comunicación

ElMercurioDigital.es, editado por mercurioPress/El Mercurio de España bajo licencia de Creative Commons. Medio independiente propiedad de Ángel Rojas Penalva
©Desde 2002 en internet
Otra información es posible