Google : les publicités politiques doivent divulguer l’utilisation de l’IA
Google exigera bientôt que les publicités politiques sur ses plateformes informent les gens lorsque des images et des fichiers audio ont été créés à l’aide de l’intelligence artificielle (IA).
Les règles ont été créées en réponse à « la prévalence croissante des outils produisant du contenu synthétique », a déclaré un porte-parole de Google à la BBC.
Le changement est prévu pour novembre, environ un an avant la prochaine élection présidentielle américaine.
On craint que l’IA ne renforce la désinformation autour des campagnes.
Les politiques publicitaires existantes de Google interdisent déjà la manipulation des médias numériques pour tromper ou induire les gens en erreur sur la politique, les questions sociales ou les questions d’intérêt public.
Mais cette mise à jour exigera que les publicités liées aux élections soient « divulguées de manière bien visible » si elles contiennent du « contenu synthétique » représentant des personnes ou des événements réels ou d’apparence réaliste.
Google a suggéré que des étiquettes telles que « cette image ne représente pas des événements réels » ou « ce contenu vidéo a été généré de manière synthétique » fonctionneront comme des indicateurs.
Les allégations manifestement fausses susceptibles de miner la confiance dans le processus électoral sont également interdites chez Google, conformément à la politique publicitaire du géant de la technologie.
Google exige que les publicités politiques révèlent qui les a payées et met à disposition des informations sur les messages dans une bibliothèque de publicités en ligne.
Les divulgations de contenu modifié numériquement dans les publicités électorales doivent être « claires et visibles » et placées là où elles sont susceptibles d’être remarquées.
Des exemples de ce qui justifierait une étiquette incluaient des images synthétiques ou des enregistrements audio montrant une personne disant ou faisant quelque chose qu’elle n’a pas fait, ou décrivant un événement qui ne s’est pas produit.
En mars, une fausse photo de l’ancien président américain Donald Trump montrant faussement son arrestation a été partagée sur les réseaux sociaux. L’image a été créée par des outils d’IA.
En mars également, une fausse vidéo du président ukrainien Volodymyr Zelensky parlant de se rendre à la Russie a circulé.
En juin, une vidéo de campagne de Ron DeSantis attaquant l’ancien président Trump présentait des images portant des marques indiquant qu’elles avaient été créées à l’aide de l’IA.
La vidéo partagée dans un tweet contenait des photos qui semblaient avoir été modifiées pour montrer M. Trump embrassant Anthony Fauci, un membre clé du groupe de travail américain sur les coronavirus, avec des baisers sur la joue.
Des experts en IA ont déclaré à la BBC que même si les images truquées ne sont pas nouvelles, la rapidité des progrès dans le domaine de l’IA générative et le potentiel d’utilisation abusive sont des sujets de préoccupation.
Google a déclaré qu’il continuait d’investir dans la technologie pour détecter et supprimer ce type de contenu.