Accéder directement au contenu

Image d'illustration

Vérité ou tromperie: Les nouvelles règles de Meta pour la publicité politique

J'ai récemment lu des articles [1, 2] qui m'ont amené à me questionner sur la valeur éthique du groupe Meta en ce qui concerne la publicité politique.

L'éthique est une valeur importante que nous commençons à intégrer dans les projets informatiques, notamment grâce au débat entourant les nouvelles technologies telles que l'intelligence artificielle (IA). Selon le Larousse, que j'ai souvent délaissé au profit des moteurs de recherche, l'éthique constitue un "ensemble de principes moraux qui sont à la base de la conduite de quelqu'un". Toujours selon ce bon vieux dictionnaire, la morale est "l'ensemble de règles de conduite considérées comme bonnes de façon absolue ou découlant d'une certaine conception de la vie".

Pour remettre les choses dans leur contexte, à l'échelle mondiale, nous sommes à l'aube d'une série d'élections cruciales, notamment aux États-Unis, en Inde, en Indonésie, au Royaume-Uni, en Russie, en Afrique du Sud et dans l'Union européenne, les citoyennes et les citoyens de ces pays voteront en 2024. Dans un monde idéal, chacun devrait pouvoir s'informer en lisant le programme de chaque candidat ou, encore mieux, en discutant avec eux. Cependant, la compétition est féroce, les candidatures nombreuses et, par manque de temps ou d'intérêt, nous nous laissons influencer.

 

Dans cet environnement, Meta annonce que sur Facebook et Instagram, toutes les publicités à caractère politique devront désormais indiquer clairement toute utilisation de manipulation numérique, afin de lutter contre les "deepfakes" [3]. Pour les élections fédérales en Suisse, il est trop tard, bien que cela aurait pu être utile, car l'IA a été utilisée à des fins inappropriées. En effet, un candidat argovien a diffusé un deepfake attribuant à une rivale, d'un autre parti, des propos qu'elle n'avait jamais tenus [4]. Dès le début de 2024, la mesure annoncée par le groupe Meta devrait tout de même s'appliquer chez nous lors de votations ou d'élections.

Lors de mes recherches pour préparer cet article, je suis également tombé sur une autre publication récente indiquant que, depuis 2022, Meta autorise la diffusion de publicités politiques affirmant que l'élection présidentielle américaine de 2020 était truquée [5]. La décision de Meta semble être motivée par des considérations de liberté d'expression. C'est à ce moment-là que je me suis interrogé sur l'éthique du groupe Meta en matière de publicité politique.

 

Que savons-nous ?

Commençons par quelques définitions ou précisions.

Qu’est-ce qu’un deepfake ?

Un deepfake est une vidéo ou une image qui peut faire dire ou faire à quelqu'un des choses qu'il n'a jamais dites ou faites. Imaginez un discours politique jamais prononcé ou une foule de partisans qui n'a jamais existé. Les implications pour les campagnes de désinformation sont claires et alarmantes. Ce n'est certes pas une nouveauté, mais l'intelligence artificielle facilite grandement la création de telles images ou vidéos.

Que considère Meta comme une manipulation numérique ?

Il me semble impossible d'énumérer toutes les modifications possibles, car je suis certain d'en oublier certaines. Cependant, Meta précise que vous n'aurez pas besoin d'indiquer que le contenu est créé ou modifié numériquement si cela n'a pas d'incidence sur la revendication, l'affirmation ou la question soulevée dans la publicité. Pratiquement, il peut s'agir d'un ajustement de la taille de l'image, d'un recadrage, d'une correction des couleurs ou d'un renforcement de la netteté de l'image. Néanmoins, il ne faut pas que ces changements affectent la substance de l'allégation, de l'affirmation ou de la question posée dans l'annonce (je me répète, mais ces importants). Pour les annonceurs, cela signifie que toute modification numérique substantielle – que ce soit pour modifier le message d'une personne dans une vidéo ou pour créer une image de personne qui n'existe pas – devra être clairement signalée.

 

Le fait que Meta cible spécifiquement les deepfakes et autres contenus numériquement altérés témoigne des préoccupations croissantes quant à l'impact de ces techniques de désinformation sur la démocratie. C'est une reconnaissance implicite que les outils utilisant l'IA, bien qu'utiles pour faciliter la production de contenu, doivent être utilisés avec prudence lorsqu'ils servent à des fins de propagande politique.

 

Comment cela va-t-il fonctionner pour nous, les internautes ?

Nous serons avertis par une notification lorsqu'une annonce aura été identifiée comme étant numériquement modifiée. Les modalités de présentation de cette information restent encore floues, et l'efficacité de la mesure dépendra en grande partie de sa visibilité, ainsi que de sa compréhension par le grand public.

Cette mesure ne sera pas sans défis. La vérification sera effectuée par une combinaison de contrôleurs humains et d'IA. Ce n'est pas un secret de dire que la distinction entre une modification légitime et une tromperie peut être difficile à établir, même pour les systèmes les plus avancés. De surcroît, il subsistera toujours des interrogations quant à l'impact réel de ces avertissements sur le comportement des électeurs et sur la capacité de Meta à faire respecter ces règles de manière cohérente.

 

Malgré ces obstacles, l'initiative de Meta peut être perçue comme un pas en avant pour s'attaquer à l'un des plus grands défis actuels de notre démocratie. La clé du succès réside dans l'éducation continue des utilisateurs à l'importance de la vérification des faits et à l'esprit critique en ligne. Il est essentiel de rester vigilant pour préserver le pouvoir de la vérité dans un monde numérique en constante évolution.

Meta n'est pas la seule entreprise à prendre de telles mesures. Google a annoncé ses mesures début septembre, en exigeant des annonceurs une communication claire lorsque leurs annonces contenaient du contenu généré par IA qui dépeint de façon inauthentique des personnes ou des événements réels ou réalistes. Microsoft, pour sa part, a également annoncé plusieurs initiatives [6], telles que garantir aux électeurs une information claire et certifiée, ou offrir aux candidats la possibilité de revendiquer l'authenticité de leur contenu et de contrer les détournements. Enfin, Microsoft préconise aux Etats des réformes légales pour lutter contre les abus technologiques tels que les deepfakes.

 

Il est crucial de reconnaître que, dans un monde où la création et la diffusion de contenu numérique sont instantanées et massives, les décisions des GAFAM (Google, Amazon, Facebook, Apple, Microsoft) peuvent soit augmenter considérablement la visibilité de certaines campagnes publicitaires, soit, si elles autorisent la publication d'idées controversées ou basées sur des hypothèses réfutées, mettre en péril la légitimité des élections passées.

 

En conclusion, il convient de se poser les questions suivantes : la législation est-elle suffisamment armée pour l'ère de l'IA? Nos gouvernements disposent-ils des moyens nécessaires pour lutter contre la désinformation et, en particulier, celle liée aux élections et votations?

 

[1] BBC, Meta requires political advertisers to mark when deepfakes used, https://www.bbc.com/news/technology-67366311, publié le 9 novembre 2023, consulté en ligne 21 novembre 2023

[2] Brian Fung, CNN, Facebook and Instagram will require political advertisers to disclose AI deepfakes, https://edition.cnn.com/2023/11/08/tech/meta-political-ads-ai-deepfakes/index.html, publié le 8 novembre 2023, consulté en ligne 21 novembre 2023

[3] Meta, Helping People Understand When AI Or Digital Methods Are Used In Political or Social Issue Ads, https://www.facebook.com/gpa/blog/political-ads-ai-disclosure-policy, publié le 8 novembre 2023, consulté en ligne 21 novembre 2023

[4] Chams Iaz, le Temps, Un conseiller national UDC a dû supprimer une fausse déclaration vidéo de sa rivale réalisée avec une IA, https://www.letemps.ch/suisse/un-conseiller-national-udc-a-du-supprimer-une-fausse-declaration-video-de-sa-rivale-realisee-avec-une-ia, publié le 18 octobre 2023, consulté en ligne 18 octobre 2023

[5] Chris Michael, the Guardian, Meta allows Facebook and Instagram ads saying 2020 election was rigged, https://www.theguardian.com/technology/2023/nov/15/facebook-ads-2020-election-rigged-stolen-instagram-policy, publié le 15 novembre 2023, consulté en ligne 21 novembre 2023

[6] Brad Smith, Teresa Hutson, Microsoft, Microsoft announces new steps to help protect elections, https://blogs.microsoft.com/on-the-issues/2023/11/07/microsoft-elections-2024-ai-voting-mtac/,  publié le 7 novembre 2023, consulté en ligne 24 novembre 2023

 

Image générée par Dall-e

Mots-clés

Articles similaires

Commentaires

  • Pas de commentaire