Denis Parra es consultado por T13 tras caso de deepfake contra Georgia Meloni

Dentro de esta semana, la primera ministra italiana, Giorgia Meloni, denunció públicamente que hay imágenes creadas con inteligencia artificial (IA) manipulando, distorsionando la realidad y mostrándola en un escenario ficticio en ropa interior.
De hecho, este jueves el Parlamento Europeo y el Consejo llegaron a un acuerdo para prohibir en territorio de la UE estas aplicaciones de IA que generan desnudos o material de abuso sexual infantil. 

En cuanto a las declaraciones de Meloni, se acusa un acto de deepfake: “En estos días circulan varias fotos mías falsas, generadas con inteligencia artificial y presentadas como verdaderas por algún diligente opositor”, escribió la mandataria en su cuenta de X.

“En estos días circulan varias fotos falsas mías, generadas con inteligencia artificial y presentadas como reales por algún opositor diligente”, comentó Meloni en sus cuentas de InstagramX y Facebook.

“Debo reconocer que quien las ha creado, al menos en el caso adjunto, me ha mejorado bastante”, ironiza Meloni. Pero advierte de que esto no solo sucede con ella: “Los deepfakes son una herramienta peligrosa, porque pueden engañar, manipular y golpear a cualquiera”. “Yo puedo defenderme. Muchos otros no. Por eso, siempre debe aplicarse una regla: verificar antes de creer y creer antes de compartir. Porque hoy me pasa a mí, mañana podría pasarle a cualquiera”, expresó la primera ministra.

Tras este escenario, T13 consultó a Denis Parra, académico del Departamento Ciencia de la Computación de la Escuela de Ingeniería UC e investigador CENIA, IMFD & IHealth, con el objetivo de dimensionar las utilidades de estas herramientas y el impacto que puede generar.

“Como toda tecnología genérica, se puede usar para buenos o malos fines, sacar ventaja política o incluso extorsionar a alguien, es algo que es factible para hacer estafas”

Reproduce la nota emitida en el siguiente enlace:

Desplazamiento al inicio