Accéder directement au contenu

Image d'illustration

Google déclare la guerre aux campagnes politiques trompeuses

En entrant dans la période des campagnes politiques, il y a une chose que j'aimerais pouvoir faire : différencier la réalité de la fiction. Eh bien, il semble que Google soit sur la même longueur d'onde.

 

Récemment, le géant de la technologie a annoncé une mise à jour de sa politique en matière de publicité de contenu "politique" [1], exigeant que tout annonceur communique clairement quand ses annonces contiennent du contenu généré par une IA qui dépeint de manière inauthentique des personnes ou des événements réels ou réalistes. Oui, vous avez bien lu, il semble que nous soyons à une époque où l’authenticité de notre réalité doit être explicitement déclarée ! D’un côté, nous avons des merveilles technologiques qui, dans leur utilisation la plus innocente, peuvent nous transformer malencontreusement, grâce à un filtre, en bébé ou en chat lors d'un appel Zoom, et d’un autre côté, elles pourraient être utilisées pour déformer la vérité dans les campagnes politiques.

Il y a quelques jours j'ai écrit un article sur l'IA et les réseaux sociaux dans le contexte de la politique suisse. J'avais abordé le sujet de l'utilisation de l'IA pour tromper le public lors des campagnes électorales, une préoccupation également soulevée par les Verts suisses. Et maintenant, nous avons Google qui prend des mesures pour contrer ce problème.

Bien sûr, il y a des exceptions. Si le contenu généré par une IA est modifié d'une manière qui est sans conséquence pour les allégations faites dans l'annonce, comme le recadrage d'une image ou la correction des couleurs, il sera exempté de ces exigences de divulgation. Donc, à moins que votre annonce ne présente des militants collés au sol comme l'a fait le PLR [2], vous n'avez probablement pas à vous en soucier.

 

À partir de mi-novembre 2023, les annonceurs, utilisant Google pour diffuser leurs publicités, seront tenus de se conformer à cette nouvelle règle. Ils devront indiquer clairement et mettre en évidence si leurs annonces contiennent du contenu généré par une IA qui dépeint de manière inauthentique des personnes ou des événements réels ou réalistes.

 

Alors, quelle est la prochaine étape ? Serons-nous bientôt bombardés d'avertissements de "faux contenu" chaque fois que nous regarderons une annonce politique ? Ou peut-être que ce sera le mouvement inverse : peut-être une absence d'avertissement deviendra-t-elle le nouveau signe d'une annonce politique honnête et transparente.

Quoi qu'il en soit, j'espère que cette mise à jour aidera à éclairer un peu plus les eaux troubles du marketing numérique en politique. Parce qu'au final, la seule chose que nous voulons tous, c'est la vérité. Et si cela signifie devoir lire quelques avertissements supplémentaires, alors c'est un petit prix à payer.

 

[1] Google, Updates to Political content policy (September 2023), https://support.google.com/adspolicy/answer/13755910?hl=en&ref_topic=29265, publié en septembre 2023, consulté en ligne le 7 septembre 2023

[2] Myrtille Wendling, TdG, Une affiche du PLR, générée par une IA, crée la polémique, https://www.tdg.ch/une-affiche-du-plr-generee-par-une-ia-cree-la-polemique-758569233102, publié le 5 juillet 2023, consulté en ligne le 7 septembre 2023

Shiona McCallum, BBC News, Google: Political adverts must disclose use of AI, https://www.bbc.com/news/technology-66739858.amp, publié le 7 septembre 2023, consulté en ligne le 7 septembre 2023

 

Mots-clés

Articles similaires

Commentaires

  • Pas de commentaire