Usan Deepfake para realizar estafas por videochats

Regresar al Entradas
ITSCA - Deepfakes

Usan Deepfake para realizar estafas por videochats

Tal vez el mejor efecto especial es aquel en el que no eres capaz de distinguir lo real de lo ficticio. Es indudable que las artes audiovisuales no sólo son pioneras en la implementación de técnicas y tecnologías que persiguen engañar los sentidos humanos, sino que también constantemente las van desarrollando para que cualquier detalle se haga cada vez más difícil de reconocer. Así se crearon los deepfakes,

Como consumidores de contenidos audiovisuales que normalmente provienen de la industria del entretenimiento, nos resulta habitual aceptar cierta cantidad y naturaleza de engaños a cambio de una experiencia sensorial más intensa.

Este tipo de engaños originalmente fueron llamados fakes, pero con el pasar del tiempo su nombre también ha evolucionado y hoy en día los conocemos como Deepfakes.

Podemos encontrar fakes o deepfakes, en cualquiera de las artes audiovisuales, están en las narrativas radiofónicas, fotografías y vídeos por igual.

Ha existido un sinfín de producciones de radio tan buenas que las historias contadas han sido creídas como reales por los radioescuchas, en ocasiones el lenguaje utilizado, la congruencia, los detalles, la locución y los efectos de sonido, han hecho dudar sobre la veracidad de la historia narrada.

Qué decir de los montajes fotográficos y el contenido cinematográfico que constantemente consumimos.

El lado oscuro de los deepfakes

De ninguna forma podemos negar que a todos nos encantan y apasionan las historias donde los efectos especiales son capaces de engañar a nuestros sentidos provocándonos toda suerte de emociones, sin embargo, no todo es tan romántico, estas tecnologías ya están disponibles y al alcance de cualquiera de nosotros, un ejemplo es la app china ZAO.

ZAO es una herramienta para Android con la que podemos colocar nuestro rostro sobre el de los protagonistas de multitud de videos. De esta forma, en cuestión de segundos podremos realizar multitud de ‘deepfakes’ bastante realistas con los que sorprender a nuestros conocidos. El problema es que hay quienes las usan con malas intenciones.

Para crear deepfakes basta con descargar e instalar en tu smartphone alguna de las apps de este tipo que hay disponibles, no mas entras en Google play y buscas Deepfakes para que elijas la APP que mejor te parezca, y sí, tal vez sea divertido o gracioso ver tu rostro en un clip tomado de alguna película reemplazando al protagonista, pero ya no lo es tanto si en una videollamada o videoconferencia crees que estas hablando con alguien que conoces y resulta que es otra persona. Sigue leyendo ya, pasó algo así.

La recomendación de hoy...

ITSCA - Envios por MRW, ZOOM, TEALCA, DOMESA O DHL

Delivery Gratis en: La Victoria, El Concejo, Cagua, Turmero y Maracay.
Fuera de este zona, trabajamos con tarifa fija de 6$

Recientemente se supo de un intento de estafa, en la cual cierto grupo de piratas informáticos crearon un deepfake para ejecutar una estafa donde uno de los malhechores se hizo pasar por un importante ejecutivo de la muy usada plataforma de intercambios de criptomonedas Binance.

Según la fuente el jefe de comunicaciones de Binance, Patrick Hillmann, empezó a recibir correspondencias en las cuales se le agradecía por tomarse el tiempo de reunirse con equipos de trabajo respecto a las posibles oportunidades de incorporar sus activos en este Exchange. Por supuesto esto llamó la atención puesto que Hillmann nunca se había reunido con ninguna de estas personas.

Pero la reunión sí se hizo mediante una videoconferencia vía zoom. Ninguno de los participantes en esta videoconferencia fue capaz de notar que quien la presidía no era en realidad quién decía ser, para tal efecto la cara en el vídeo utilizada por el hacker, era claramente la de Hillmann.

¿Puedes confiar en lo que ves?

Tal parece que ya ni siquiera podemos creer lo que nos dicen nuestros propios ojos. Todo parece indicar que los hackers de sombrero negro se están haciendo cada vez más sofisticados, al punto de suplantar la identidad de alguien en una videoconferencia en vivo. Para mí esto es aterrador.

Hace poco, la empresa londinense Metaphisic le pidió al Actor Bob Doyle que hiciera una serie de videollamadas usando el software DeepFaceLive y que representara a algunos colegas suyos y otras personalidades.

Evidentemente que los resultados fueron más que satisfactorios, aunque a la vez, se pudo apreciar que si se le pide al actor girar su cara 90 grados a cualquier lado, se podrá notar que los algoritmos fallan deformando la imagen.

Tomado de la página oficial de metaphysic.ai
Tomado de la página oficial de metaphysic.ai

Este fallo aun nos permite un recurso para identificar la veracidad de la identidad de la persona con quien tenemos la videoconferencia o videollamada, pero en la medida en la que esta tecnología avanza, tal vez pronto no podamos hacer nada.

Escucha el podcast sobre este tema que hicimos en el Disco Rudo del Safari de las Mañanas por Victoria 103.9fm

(2) Comentarios

  • heisler (@HeislerSin) Contestar

    Llegará muy pronto los montajes de políticos esos sí generarán grandes problemas

    7 septiembre, 2022 at 3:08 pm
  • Yrma Camejo Padilla Contestar

    Excelente tema. Ing Jaime, con el avance de la tecnología, si así se llama, muchos beneficios trae, pero también pueden causar situaciones adversas. Imagino algo tan simple como utilizar el rostro de una persona y grabar un vídeo cometiendo un delito. Pueden causar graves problemas a la dignidad de una persona, por decir algo. Hay que estar alerta, las personas que utilizan esta herramienta. Gracias por compartí la información. Escuché arte del programa por la radio, hoy.

    31 agosto, 2022 at 8:05 pm

Deja tu comentario aqui

Regresar al Entradas
Acabas de añadir este producto al carrito:

× Whatsapp