Dentro de esta semana, la primera ministra italiana, Giorgia Meloni, denunció públicamente que hay imágenes creadas con inteligencia artificial (IA) manipulando, distorsionando la realidad y mostrándola en un escenario ficticio en ropa interior.
De hecho, este jueves el Parlamento Europeo y el Consejo llegaron a un acuerdo para prohibir en territorio de la UE estas aplicaciones de IA que generan desnudos o material de abuso sexual infantil.
En cuanto a las declaraciones de Meloni, se acusa un acto de deepfake: “En estos días circulan varias fotos mías falsas, generadas con inteligencia artificial y presentadas como verdaderas por algún diligente opositor”, escribió la mandataria en su cuenta de X.
“En estos días circulan varias fotos falsas mías, generadas con inteligencia artificial y presentadas como reales por algún opositor diligente”, comentó Meloni en sus cuentas de Instagram, X y Facebook.
“Debo reconocer que quien las ha creado, al menos en el caso adjunto, me ha mejorado bastante”, ironiza Meloni. Pero advierte de que esto no solo sucede con ella: “Los deepfakes son una herramienta peligrosa, porque pueden engañar, manipular y golpear a cualquiera”. “Yo puedo defenderme. Muchos otros no. Por eso, siempre debe aplicarse una regla: verificar antes de creer y creer antes de compartir. Porque hoy me pasa a mí, mañana podría pasarle a cualquiera”, expresó la primera ministra.
Tras este escenario, T13 consultó a Denis Parra, académico del Departamento Ciencia de la Computación de la Escuela de Ingeniería UC e investigador CENIA, IMFD & IHealth, con el objetivo de dimensionar las utilidades de estas herramientas y el impacto que puede generar.
“Como toda tecnología genérica, se puede usar para buenos o malos fines, sacar ventaja política o incluso extorsionar a alguien, es algo que es factible para hacer estafas”
Reproduce la nota emitida en el siguiente enlace:
