VIDEO VIRAL: una mujer estadounidense asegura que una empresa utilizó IA para robar su imagen y crear un anuncio 'deepfake'. (Foto: @michel.c.janse)
VIDEO VIRAL: una mujer estadounidense asegura que una empresa utilizó IA para robar su imagen y crear un anuncio 'deepfake'. (Foto: @michel.c.janse)
Jorge Villanes

El rápido avance de la inteligencia artificial en la creación de videos ‘deepfake’, capaces de imitar a personas reales de forma convincente, podría estar teniendo un efecto inesperado sobre la forma en la que vemos anuncios en Internet. Un ejemplo de esto vendría a ser lo ocurrido con Michel Janse, una creadora de contenido estadounidense conocida como @michel.c.janse que ha compartido su preocupación ante algo insólito: un clip publicitario generado por IA, el cual utiliza su rostro para promocionar un producto de adultos en las redes sociales.

Mira también:

La joven cree que la mencionada compañía habría tomado imágenes de sus redes sociales, específicamente de un video en donde comparte momentos muy personales de su vida. Posteriormente, estos fragmentos fueron utilizados para crear un video ‘deepfake’ en el que ella promueve el uso de unas píldoras para la disfunción eréctil.

Este descubrimiento la dejó muy preocupada, ya que el anuncio imitaba gestos humanos con una asombrosa precisión. La persona en el clip respiraba, hablaba y se movía como si fuera una persona de carne y hueso, algo que podría engañar a cualquiera.

“Entonces la IA robó mi imagen y creó un anuncio falso en el que aparecía promocionando píldoras para la disfunción eréctil”, señaló la creadora de contenido, indicando que la única diferencia entre ella y la mujer recreada con inteligencia artificial era el tono de su voz.

“De hecho, creo que es muy importante hablar de ello porque ahora estamos entrando en esta era de vivir nuestras vidas en línea en la que necesitamos cuestionar todo lo que vemos”, agregó. “Alguien que conoces podría estar en un vídeo diciéndote algo, se parece exactamente a esa persona y podría ser completamente inventado”.

@michel.c.janse

storytime: AI stole my likeness and created a deepfake of me ✌🏼😅 believe nothing 🫡

♬ original sound - Michel Janse

Una realidad preocupante

“Honestamente, no sé cómo nosotros, como sociedad, podemos ser más exigentes a la hora de distinguir qué es real y qué es falso”, concluye. “Porque cada vez será más realista y preciso”.

La reacción de los usuarios ante el caso de Janse ha sido variada. Algunos ven el lado humorístico de la situación, mientras que otros le pidieron a la joven a considerar tomar acciones legales contra la empresa responsable del ‘deepfake’.

“Cuando diga y haga cosas vergonzosas, simplemente diré que fue una IA profunda”; “Tienes que demandar”; “Sé que todo el mundo dice demandar, pero realmente espero que un abogado esté dispuesto a aceptar su caso pro bono porque esto podría cambiar el curso de la historia”; “Consigue un abogado, sienta un precedente que establezca protecciones para todos los demás en el futuro”; “Lamento muchísimo que esto te haya pasado”, escribieron las personas.

Gracias por visitarnos hoy. Espero que este contenido de video viral haya sido de tu agrado. Si deseas encontrar más contenido similar visítanos en . Te estaremos esperando.

Más historias parecidas

Te recomiendo ver este video

Presenció actividad paranormal pero nadie le creyó hasta ver el video. (Facebook | Jay Brown)


Tags Relacionados: