• Auteur/autrice de la publication :
  • Post category:Vidéo/audio
  • Commentaires de la publication :0 commentaire
  • Dernière modification de la publication :2 octobre 2024
  • Temps de lecture :5 mins read
Publicités

Le Deepfake ou hypertrucage, la technologie d’un futur irréel !

Ce terme ne vous dit probablement rien, et pourtant, vous l’avez forcément vu, au moins une fois, sans en vous rendre forcément compte. Mais savez-vous ce que c’est réellement ? C’est ce que nous allons voir dans cet article.

Le Deepfake, c’est quoi ?

Le deepfake, ou hypertrucage est une technique de superposition audio ou vidéo sur une autre vidéo, appuyer sur l’intelligence artificielle de façon ultra-réaliste afin de simuler les mouvements faciaux. Le meilleur exemple, le remplacement d’un visage d’une autre personne sur une vidéo. Wikipédia

Le Deepfake, historique

Cette technique de transposition des mouvements faciaux, a été présentée en 2016. Elle permet de contrefaire, en temps presque réel, les expressions d’une autre personne.

À cette époque, vous vous souvenez sûrement de l’affaire de Tom Cruise où l’on avait utilisé son visage sur diverses vidéos. Si vous n’avez pas suivi les news ou souhaitez connaître de quoi il en retourne, vous avez la possibilité de suivre le lien, de regarder la vidéo en activant les sous-titres.

Ce lien permet d’en apprendre plus sur le côté flippant de cette technique du trucage vidéo. Pourquoi les vidéos deepfake de Tom Cruise sont-elles si flippantes ?

Cet article n’a pas pour vocation à vous d’expliquer en détail le fonctionnement de ces technologies aidées par l’intelligence artificielle. Mais plus de lancer une réflexion sur l’implication de l’intelligence artificielle, sur ce qu’elle peut impliquer dans notre vie numérique, ses dangers.

En France ?

En France, le meilleur exemple est l’émission « C’est Canteloup », diffusée sur la « merveilleuse » chaîne TF1. Son principe est la caricature humoristique de nos personnalités politiques ou autres. Depuis quelques années, environ 5 ans, le Deepfaking y est systématiquement appliqué avec plus ou moins de réussite, même parfois improbable.

Je vous laisse seuls juges, avec ces quelques captures issues de l’une des émissions de TF1 de 2021, en l’honneur :

      • de Marine le Pen,
      • de Jean-Michel Blanquer, ministre de l’Éducation de l’époque,
      • de Philippe Etchebest,
      • de la maire de Paris, Anne Hidalgo, photo de couverture.

C’est Canteloup: La Grande métamorphose, comment l’humoriste s’est transformé grâce au deepfake Article de BFMTV

Se fier au réel ?

Quand on voit les résultats que peuvent produire les algorithmes d’intelligence artificielle, on est en droit de se demander, si tout cela ne va pas trop loin. S’il y est encore possible de faire une quelconque différence, entre une vidéo, une image qui n’a pas été retouchée ou créée de toutes pièces.

Relativisons, car tout n’est pas parfait. L’émission C’est Canteloup nous prouve qu’il y a des algorithmes plus ou moins efficaces, même en 2024. Ce qui est certain, on s’approche doucement de la perfection. Un jour, tout ce qui nous entoure risque bien de n’être que du fake (faux).

Éthique et vie privée

      • Éthique

Dans l’avenir, avec la démocratisation de cette technologie, tout le monde aura la possibilité d’effectuer cet hypertrucage aussi simplement qu’un filtre Instagram, grâce notamment aux applications comme Reface ou Deep Nostalgia.

Sous prétexte de l’amusement, on pense, dans le fond, que ce n’est pas dramatique. Sauf que non !!! Le problème de ces hypertrucages finit par créer un monde dans lequel l’on risquera probablement de ne plus déceler le réel, de ce qui ne l’est pas.

Avec les réseaux sociaux, il deviendra très facile de propager cette fausse réalité, X (ex Twitter) en est le bon exemple. Nous faisant croire tout ce dont l’on veut bien nous faire croire : fake news (infox),  sondages et chiffres biaisés, des paroles non dites ou sorties de leur contexte, etc. Mais également le pire, les arnaques au Deepfake.

      • Vie privée

C’est important d’en parler. Pour arriver à un tel niveau de réalisme, l’intelligence artificielle, a besoins de beaucoup de temps, des mois, des années, pour parfaire son apprentissage. Elle doit analyser des milliers de photos et de vidéos, le deep learnig ou Apprentissage profond. Mais d’où sortent toutes ces vidéos analysées ? On ne le sait pas réellement. Mais ce qui est sûr de partout.

Attention aux arnaques !

Il n’y a pas si longtemps, elle se résumait à un simple remplacement de visage dans le monde du cinéma ou vidéo YouTube. Puis, comme toute technologie à usage professionnel, a commencé à intéresser de plus en plus le grand public. Pas bien difficile de s’imaginer que des personnes malhonnêtes allaient s’en emparer.

Aujourd’hui, non seulement, on arrive facilement à modifier un visage, mais depuis peu, la voix humaine. Un simple échantillon d’un discours de la personne en question, de l’apprentissage et le tout est joué. Il est aussi possible de modifier les mouvements des lèvres et expressions du visage en temps réel afin d’augmenter le réalisme des dires de la personne.

Le dernier exemple en date est celui qu’a subi Florent Pagny, dans le but de soutirer de l’argent à l’une de ses fans.

TF1, le 25-09-2024, dans son JT, relatait une autre arnaque du même genre, mais cette fois-ci en se faisant passer pour la mère de la victime. Le but est identique, soutirer une somme d’argent.

Comment s’en prémunir !

Ce n’est pas simple de ne pas se faire avoir, puisqu’il est très facile d’usurper tout ce que l’on souhaite, comme le numéro de l’appelant.

Quand il s’agit d’agent, la seule réaction est l’ignorance, même si c’est un membre de votre famille. En cas de doute, posez-lui les bonnes questions que seule cette personne est capable d’y répondre. Lui en parler de vive voix est également la meilleure attitude à avoir afin de s’assurer de ses dires.

De plus, ne jamais tomber sous le coup de l’émotion et garder son sang-froid.

Conclusion

Comme pour tous types de technologie, il y aura toujours des gens malhonnêtes qui abuseront des plus faibles ou des moins informés sur les arnaques ou pièges du moment. Faites attention et ne vous précipitez pas. Donnez-vous le temps de la réfection.

Publicités
0 0 votes
Évaluation de l'article
S’abonner
Notifier de
guest
0 Commentaires
le plus récent
le plus ancien le plus populaire
Commentaires en ligne
Afficher tous les commentaires