Análisis a cien ‘deepfakes’: RSF alerta sobre una amenaza creciente para periodistas, especialmente las mujeres

Impulsados por el rápido auge de la Inteligencia Artificial Generativa (IAG), los deepfakes, esos montajes digitales que usurpan la identidad de personas reales, se están imponiendo en el panorama informativo mundial. Entre diciembre de 2023 y diciembre de 2025, Reporteros Sin Fronteras (RSF) ha identificado, de forma no exhaustiva, al menos a 100 periodistas víctimas de esta tecnología en 27 países, con consecuencias que van desde la difamación hasta el fraude, pasando por el peligro contra la integridad física. Los deepfakes también están marcados por la violencia de género: el 74 % de los periodistas afectados son mujeres.
“No pensaba que me convertiría en objetivo”. Cristina Caicedo Smit, periodista especializada en libertad de prensa para el medio internacional estadounidense Voice of America (VOA), descubrió en febrero de 2025 que su voz y su imagen habían sido utilizadas indebidamente en un deepfake. Dos vídeos difundidos en la plataforma X reprodujeron fielmente su voz y sus gestos ante la cámara. En ellos, la falsa voz de la periodista arremetía violentamente contra Donald Trump y Elon Musk, todavía al frente de DOGE, el Departamento de Eficacia Gubernamental de Estados Unidos, y defendía enérgicamente a la Agencia de Estados Unidos para el Desarrollo (USAID), una institución entonces atacada constantemente por la administración Trump antes de ser directamente desmantelada. La estrategia de desinformación siempre ha sido hacer pasar a VOA, un medio público en el punto de mira de Donald Trump, por un actor militante contra el presidente estadounidense. El caso de Cristina Caicedo no es en absoluto aislado: en 24 meses, entre diciembre de 2023 y diciembre de 2025, RSF ha contabilizado a 100 periodistas víctimas de al menos un deepfake en 27 países del mundo.
Herramientas de manipulación eficaces
La voz y el rostro de Pedro Benevides, presentador del canal portugués TV1, fueron manipulados en un vídeo que circuló por Facebook: una voz sintética, mal sincronizada con el movimiento de sus labios, le hacía afirmar que el Gobierno portugués conspiraba con la industria farmacéutica para imponer la vacunación contra la COVID-19. En los comentarios, las reacciones eran inequívocas: el público se deja engañar y cree que el vídeo es real. “Estas personas eligen qué quieren creer”, explica Pedro Benevides. “Incluso después de publicar un vídeo en el que explicaba que se trataba de un deepfake, muchas respondieron: “De acuerdo… quizá el vídeo sea falso. Pero lo que dice es cierto”, añade.
El medio francés de información internacional Radio France internationale (RFI), así como varios de sus periodistas, también fueron objeto de una usurpación de identidad visual en la República Democrática del Congo, en junio de 2025. Este deepfake, con fines de desestabilización política, fue ampliamente considerado como un vídeo auténtico y generó numerosos comentarios.
Impunidad generalizada
Los deepfakes políticos siguen siendo demasiado difíciles de rastrear, y es muy difícil que sus autores sean llevados ante la justicia. Después de ser víctima de una grabación de audio falsa destinada a hacer creer que estaba tramando un fraude electoral en 2023, la periodista eslovaca Monika Todova presentó una denuncia por difamación. Fue interrogada en marzo de 2024. Desde entonces, la investigación se ha estancado hasta que la policía, incapaz de encontrar al autor, ha archivado el caso.
Impacto directo sobre la actividad periodística
Más allá del vértigo, de esa sensación de estar “en otra realidad”, según los términos de los periodistas que han confiado en RSF, el mayor temor es, sobre todo, ver cómo se utiliza su imagen para manipular a su propia audiencia. El calvario de Leanne Manas, rostro emblemático de la cadena sudafricana South African Broadcasting Corporation (SABC), es una prueba escalofriante de ello. Objeto de una avalancha de deepfakes, la periodista aparece en anuncios falsos de productos farmacéuticos o estafas con criptomonedas, a veces mediante publicaciones patrocinadas en Facebook. Algunos contenidos incluso anuncian su encarcelamiento para engañar a los internautas.
Las consecuencias son devastadoras: las víctimas, convencidas de la veracidad de los contenidos, acuden a su lugar de trabajo para pedirle explicaciones o la inundan de mensajes —hasta 50 al día, según ella— reclamando una indemnización por los daños sufridos tras clicar en enlaces fraudulentos o, por el contrario, solicitando asesoría de inversión. La policía incluso acudió a interrogarla a su trabajo después de que se presentase una denuncia contra ella.
Ante el pánico suscitado por los deepfakes, algunos periodistas se plantean ralentizar su actividad profesional, o incluso tomarse un descanso. Cristina Caicedo Smit, que publicaba un vídeo semanal sobre libertad de prensa, explica a RSF que dejó de grabar vídeos durante dos semanas tras descubrir los deepfakes. Al reanudar su actividad, ella y su equipo idearon nuevas formas de producir sus vídeos, con el fin de reducir su exposición en Internet y limitar el riesgo de que su imagen volviera a ser utilizada en otros deepfakes. Una estrategia sin garantía de éxito.
El 74 % de las víctimas de deepfakes son mujeres periodistas
En los diferentes casos analizados por RSF, las mujeres representan el 74 % de los periodistas afectados por deepfakes. Y de ellas, el 13 % ha sido objeto de contenidos de carácter pornográfico. Estos ataques se suman a un acoso ya masivo y estructural, como el que sufre la periodista Rana Ayyub, blanco desde hace años de campañas de odio.
En Argentina, Julia Mengolini, periodista y fundadora de la emisora independiente Futurock y blanco predilecto de la extrema derecha de su país, fue víctima de un deepfake pornográfico particularmente violento y abyecto, en el que se escenificaba, con fines denigrantes, una relación incestuosa con su hermano. Aún peor: el presidente argentino, Javier Milei, contribuyó a amplificar esta campaña al compartir una publicación en la que se burlaba de los intentos de la periodista por poner fin a este acoso. Siempre combativa, Julia Mengolini presentó una denuncia contra el jefe del Estado y varias figuras de su entorno.
Los deepfakes pornográficos suelen formar parte de campañas de ciberacoso dirigidas a mujeres periodistas, más expuestas que sus colegas masculinos, como ha documentado RSF en su informe El periodismo en la era del MeToo. En Francia, la periodista del medio Blast Salomé Saqué es una de las víctimas más mediáticas de estos ataques, cuyas repercusiones en su trabajo denuncia, al tiempo que pide que se regulen.
Contenidos difíciles de controlar
A pesar de su diversidad, todos los deepfakes tienen algo en común: las redes sociales son el trampolín para su difusión. Y no todas las plataformas colaboran en la lucha contra estos contenidos de desinformación. Si bien algunos periodistas contactados por RSF reconocieron que sus interlocutores, por ejemplo en Meta, retiraron rápidamente los contenidos maliciosos, otros, como Julia Mengolini, afirman tener enormes dificultades para lograr su atención. RSF ha podido constatar que todavía es posible encontrar en la plataforma cuentas que comparten imágenes del deepfake que la afecta o extractos del mismo.
Incluso una vez eliminados, los deepfakes pueden reaparecer en tan solo un instante. El presentador Pedro Benevides pensaba que el que usurpaba su imagen había sido eliminado definitivamente por el personal de Meta después de que la plataforma borrara un contenido que él les había señalado. Sin embargo, a los equipos de RSF les bastaron unos pocos clics para volver a encontrarlo.
No obstante, algunos casos permiten vislumbrar un posible cambio. En la India, el editor jefe de India TV, Rajat Sharma, consiguió que se eliminaran dos canales de YouTube que difundían contenidos usurpando su identidad, tras presentar una solicitud ante el Tribunal Superior de Delhi.
Los deepfakes de periodistas causan estragos. Para proteger el derecho a la información, el marco jurídico actual no es suficiente. RSF hace un llamamiento a las plataformas para que asuman su responsabilidad: deben reforzar la moderación y señalar explícitamente cualquier producción generada por inteligencia artificial. Es la única condición para limitar la capacidad de daño de estos contenidos y proteger el derecho a la información de los ciudadanos.
Vincent Berthier. Responsable del Área de Tecnología y Periodismo de RSF
Tres recomendaciones de RSF para frenar la amenaza de los deepfakes:
Generalizar la adopción de normas técnicas de trazabilidad por parte de los grupos mediáticos. Para que el público pueda distinguir claramente lo verdadero de lo falso, RSF invita a los medios de comunicación a invertir en sistemas de marcado de sus contenidos. Siguiendo el ejemplo de la British Broadcasting Corporation (BBC), la Agence France-Presse (AFP) o France Télévisions, las redacciones ganarían en hacer accesibles los datos que acreditan el origen y las posibles modificaciones de sus contenidos, de conformidad con la Carta de París sobre la IA y el periodismo.
Obligar a las plataformas a integrar mecanismos de certificación de la autenticidad de los contenidos. Como guardianes de la información, es responsabilidad de las plataformas indicar claramente si un contenido ha sido generado por IA o es auténtico y si ha sido producido por un medio periodístico.
Establecer un delito específico para los deepfakes maliciosos. RSF pide que se apliquen sanciones penales a cualquier creador o difusor de deepfakes cuyo objetivo sea engañar al público. La cuestión de la responsabilidad de los diseñadores de IA en estas prácticas no puede seguir pendiente, ya que no se ha logrado establecer las salvaguardias técnicas indispensables para impedir la creación de contenidos peligrosos.
