YOUTUBE CONTRE LES DEEPFAKES

Face à des technologies avancées, le droit seul ne peut suffire.

Il paraît aujourd’hui nécessaire d’envisager des moyens techniques afin de réguler la technologie par la technologie.

C’est vraisemblablement la voie empruntée par la plateforme YouTube, pionnière dans le déploiement d’un outil technique capable de détecter les deepfakes, crée avec la CAA (Creative Artists Agency).

Comment fonctionne l’outil ?

Le dispositif de protection développé par YouTube repose, en premier lieu, sur un mécanisme d’adhésion volontaire (opt-in) de la part du créateur souhaitant en bénéficier.

Celui-ci doit donner son consentement explicite afin d’être répertorié par l’outil.

Le système s’appuie sur une intelligence artificielle capable de détecter la reproduction synthétique de la voix et de l’image d’un créateur. À cette fin, l’utilisateur doit fournir des données biométriques, notamment des échantillons de voix et d’images, permettant au programme d’identifier les tentatives de reproduction illicite.

Ainsi, le dispositif repose une analyse de l’identité audiovisuelle des personnes. Il convient de souligner que ce fonctionnement
fait peser sur la plateforme YouTube des obligations strictes en matière de protection des données personnelles. En effet, les données
biométriques relèvent de la catégorie de données sensibles au sens de l’article 9 du RGPD.
Le règlement européen interdit de recueillir ou d’utiliser ces données, sauf, notamment si la personne concernée a donné son consentement exprès (démarche active, explicite et de préférence écrite, qui doit être libre, spécifique, et informée).

Qu’en est-il de l’efficacité de l’outil ?

En cas de suspicion de deepfake, le créateur concerné est informé et se voit proposer trois options. Chacune soulève des interrogations quant à son efficacité pratique.

1.Demander le retrait du contenu au titre de l’atteinte à la vie privée

    Cette mesure semble être une voie d’action relativement limitée : elle permet le retrait du contenu litigieux, mais ne répare pas le préjudice subi par le créateur, notamment en cas d’atteinte à sa réputation.

    2.Signaler le contenu

    On peut s’interroger sur les effets concrets du signalement : s’agit-il d’un mécanisme destiné à renforcer la surveillance interne de YouTube des contenus ? En quoi diffère-t-il, en termes de conséquences de la demande de retrait ?
    Ce mécanisme rappelle celui prévu par le DSA (Art. 16), qui impose aux plateformes de mettre en place un système accessible de signalement de contenus illicites et de traiter ces notifications rapidement et de manière justifiée. On peut donc envisager que le signalement sur YouTube puisse, à terme, être appliqué de la même manière.

    3.Déposer une réclamation pour violation dedroits d’auteur

    Le recours au droit d’auteur suppose que le deepfake reproduise un contenu protégé appartenant au créateur, ce qui implique d’apporter la preuve de l’originalité de l’œuvre ainsi que de justifier de sa titularité. Or, ces éléments semblent difficiles à vérifier pour YouTube.

    Par ailleurs, les trois options reposent sur une démarche proactive du créateur, alors même qu’il a déjà adhéré au dispositif. En outre, que dire du droit pénal, qui prévoit une incrimination spécifique en cas de recours au deepfake, à l’article 226-8 du Code pénal (loi SREN), et qui n’est pourtant pas mentionné comme fondement ?

    Le champ d’application du dispositif constitue également une limite notable, en effet, les « créateurs » concernés sont uniquement des personnalités publiques. Ce choix peut se justifier par leur vulnérabilité particulière aux deepfakes et par le risque que leur image serve de vecteur de fake news.

    Pour autant quid des personnes ne jouissant d’aucune notoriété publique ?

    L’on rappelle que l’article 9 du Code civil et l’article 226-8 du CP ne font pas de distinction.

    En définitive, l’initiative de la plateforme YouTube représente un premier pas prometteur.

    Le fait qu’un acteur de cette envergure adopte une telle démarche pourrait en inspirer d’autres. Par ailleurs, cette initiative s’inscrit pleinement dans l’esprit du DSA et du RGPD, en encadrant les contenus illicites. Enfin, le développement de ces outils de détection ouvre des perspectives pour la mise en place de mécanismes techniques fiables, capables d’identifier les usages illicites de l’image ou de la voix d’une personne.

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *