Giorgia Meloni, primera ministra de Italia, fue objeto de una serie de deepfakes sexualizados creados por sus opositores. Las imágenes mostraban a Meloni sentada en una cama, vestida únicamente con lencería, y recibieron comentarios en redes sociales en los que se calificaba su apariencia de “vergonzosa e indigna del cargo que ocupa”.
En respuesta al ataque, la primera ministra adoptó una postura irónica y, al mismo tiempo, firme: “Debo admitir que quienes las crearon, al menos en el caso adjunto, también me mejoraron bastante”. Al compartir las imágenes, Meloni aprovechó para advertir sobre los peligros de difundir contenido en línea sin verificar su autenticidad y recordó que los deepfakes son ilegales en Italia.
Italia fue pionera en la Unión Europea al criminalizar el uso de deepfakes con intención de perjudicar a una persona. La legislación, aprobada en 2025, establece sanciones tanto económicas como penales para quien crea o difunde imágenes o vídeos generados por inteligencia artificial con ánimo de causar daño. Según esta norma, las penas pueden llegar a incluir multas y, en los casos más graves, privación de libertad.
Este no es el primer incidente de este tipo que afecta a Meloni. En 2024 demandó a dos individuos por 100.000 €, tras la difusión de vídeos falsos en un sitio pornográfico con sede en Estados Unidos. Las imágenes manipuladas de personalidades públicas y privadas circulan con frecuencia por Internet, lo que refuerza el mensaje de la primera ministra: hay que extremar las precauciones antes de compartir contenido.
Sobre los nuevos deepfakes, Meloni insistió: “Verifiquen antes de creer, y crean antes de compartir. Porque hoy me sucede a mí; mañana puede pasarle a cualquiera. Los deepfakes son una herramienta peligrosa: pueden engañar, manipular y dañar a cualquier persona. Yo puedo defenderme; muchas otras no”.
El caso pone de manifiesto cómo una tecnología moderna, cuando se emplea de forma malintencionada, puede afectar tanto a figuras públicas como a ciudadanos anónimos. Este tipo de manipulación digital no solo atenta contra la reputación y la privacidad, sino que también puede generar desinformación y sembrar el pánico social.
Los deepfakes son contenidos audiovisuales creados mediante algoritmos de inteligencia artificial, principalmente redes generativas antagónicas (GAN, por sus siglas en inglés). Estas arquitecturas de aprendizaje automático son capaces de generar imágenes y vídeos falsos que resultan muy difíciles de distinguir del material auténtico.
La primera aparición de deepfakes tuvo lugar alrededor de 2017 en foros de Internet, donde usuarios compartían montajes caseros con resultados a menudo burdos. Con el tiempo, la tecnología evolucionó y el nivel de realismo se perfeccionó, dando lugar a aplicaciones potencialmente perjudiciales, como la suplantación de identidad, el ciberacoso o la creación de pruebas falsas en el ámbito judicial.
Para contrarrestar estos riesgos, se han desarrollado herramientas de detección basadas en análisis forense digital, verificación de metadatos y marcas de agua digitales. Sin embargo, el ritmo de avance de los generadores de deepfakes exige constantes mejoras en los sistemas de identificación y en la formación de los usuarios para fomentar la cultura de la comprobación de fuentes.
A nivel global, varios países han comenzado a actualizar su legislación para abordar los desafíos legales y éticos que plantean los deepfakes. En la Unión Europea, las directivas sobre servicios digitales y la Estrategia de Ciberseguridad incluyen recomendaciones para regular el uso de inteligencia artificial en la creación de contenidos. España, por su parte, estudia medidas similares que podrían aplicarse en los próximos años.


