Deep Fakes


por C. G.


'Deep Fake': el término que debes conocer para estar a la última. Esta tendencia, que va un paso más allá de las 'fake news', se ha convertido en el azote de los famosos.

Vivimos en un mundo cada vez más mediático en el que cualquiera puede acceder a todo tipo de información en Internet. El problema está precisamente en que con esa tal cantidad de noticias y viralidad corremos el riesgo de ser engañados.

abc.net.au/Can you tell a fake video from a real one? Artificial intelligence is emerging as the next frontier in fake news — and it just might make you second-guess everything you see.


Desde su llegada al poder, Donald Trump ha extendido tanto el término ´fake news´ que parece que a día de hoy hay un mayor control en torno a estas informaciones. Pero mientras muchas páginas se dedican a publicar noticias falsas para ganarse unos cuantos ´clicks´, hace tiempo que en la Red está extendiéndose una práctica que va un paso más allá: el ´deep fake´.

Este nuevo concepto de noticias falsas hace referencia a todos aquellos vídeos en los que se manipulan los rostros de sus protagonistas para poner la cara de otra persona de una manera muy realista.

Información:

UW researchers create realistic video from audio files alone

A new tool developed by computer vision researchers at the University of Washington Paul G. Allen School of Computer Science & Engineering creates realistic video from audio files alone. In this example, the team created realistic videos of Obama speaking in the White House, using the audio file from a television talk show and during an interview decades ago.


Publicado el 11 jul. 2017 por  UW (University of Washington)

El verano pasado unos investigadores de la Universidad de Washington publicaron en Youtube un vídeo en el que el expresidente Barack Obama aparecía hablando a la cámara en primer plano. Todo parecía normal, pero en realidad se trataba de un ´deep fake´

Los investigadores crearon las imágenes a partir de un audio de Obama. El objetivo del trabajo era meramente académico: aprender a sincronizar los movimientos sutiles de la boca de un personaje con una grabación de su voz. Pero aunque no tenían intención de alentar a crear vídeos falsos, las imágenes del expresidente estadounidense dieron pie a otros vídeos que pronto recibieron el nombre de ´deep fakes´ (falsedad profunda) por su capacidad para manipular informaciones.

Los 'deep fakes' de Nicholas Cage son una moda en la Red. Esta tendencia, en la que los rostros de los protagonistas de las películas se cambian por los de otros actores, se convirtió poco a poco en el azote de los famosos. Especialmente en el caso de las actrices, que vieron como sus caras comenzaron a aparecer en películas pornográficas al cambiar los rostros de las estrellas del cine X por los suyos.

¿Cómo detectar un 'deep fake'?

A día de hoy la mayoría de 'deep fakes' se detectan fácilmente. Muchas veces las características no se alinean perfectamente, el color de la cara tiene otro matiz, se ve rara o simplemente sabemos que ese actor no ha aparecido en esa película. Sin embargo, existen otros vídeos en los que sólo se cambian los ojos o la boca de los protagonistas y que son más difíciles de detectar. Para saber si son falsos o no deberemos fijarnos en la sincronización de los labios (si no se mueven al mismo tiempo que el audio) o al parpadeo de los ojos.

Fuente:  diarioinformacion.com/vida-y-estilo/tecnologia/2018


Información:
Deepfakes - Real Consequences

Hi, welcome to ColdFusion (formerly known as ColdfusTion).
Experience the cutting edge of the world around us in a fun relaxed atmosphere.



Publicado el 28 abr. 2018 por  ColdFusion

Información:
"Deep fake" y la evolución de las noticias falsas: ¿Cómo evitamos el engaño?

"Deep fake" es el nuevo concepto de noticias falsas que permite alterar rostros en vídeos de forma muy precisa para potencialmente mostrar a cualquier persona en algún acto comprometedor. El sociólogo, consultor, emprendedor de nuevos medios y docente de la Facultad de Diseño de la UDD, Jorge Hernández, explicó las aristas del concepto.


Publicado el 17 may. 2018 por  Jorge Hernández

No hay comentarios :