Épisode 1453 : Pendant deux ans, on a traité l’IA comme un sujet d’atelier : “ça aide à produire plus vite”, “ça sert au script”, “ça fait gagner du temps sur les visuels”.
Mais là, on change d’époque.

La transparence IA n’est plus seulement une question de morale ou de préférence perso. C’est devenu un sujet à trois étages :
le droit, la confiance des audiences, et les règles des plateformes.

La bonne question n’est donc pas :
“Doit-on tout déclarer ?”
La bonne question est :
“À quel moment l’usage de l’IA change-t-il la nature du contenu au point que ne pas le dire devient un problème ?”

Et pour répondre proprement, il faut distinguer trois choses :

  1. ce que la loi impose ;
  2. ce que la déontologie recommande ;
  3. ce que les plateformes, médias et marques sont déjà en train de mettre en place.

1. Ce que dit la loi : on va vers une obligation de transparence ciblée, pas un label universel

En Europe, l’AI Act ne demande pas de tout labeliser

Le cadre central, c’est l’AI Act européen. Son article 50 prévoit surtout des obligations de transparence dans des cas précis :
les systèmes génératifs doivent produire des contenus marqués de façon machine-readable et détectables comme artificiels ; et les deployers doivent divulguer les deepfakes ainsi que certains textes générés par IA publiés pour informer le public sur des sujets d’intérêt public. Ces obligations s’appliquent à partir du 2 août 2026.

La logique du texte est très claire :
l’Europe vise d’abord les contenus susceptibles de tromper sur le réel. Par exemple :

  • une vidéo deepfake d’une personne réelle ;
  • une scène réaliste qui n’a jamais eu lieu ;
  • un texte “informationnel” généré par IA sur un sujet d’intérêt public, s’il n’y a pas de vraie relecture éditoriale humaine.

Et l’AI Act prévoit aussi une nuance importante : pour les œuvres artistiques, créatives, satiriques ou fictionnelles, la divulgation peut être plus légère, à condition d’informer sans casser l’expérience.

Le Code of Practice européen précise déjà l’esprit du futur dispositif

La Commission européenne a lancé un Code of Practice on marking and labelling of AI-generated content pour aider à appliquer l’article 50. Il confirme la séparation entre :

  • les providers, qui doivent rendre les contenus détectables par machine ;
  • les deployers, qui doivent informer les humains quand ils diffusent des deepfakes ou certains textes IA d’intérêt public.
    Le calendrier annoncé vise une finalisation du code au printemps 2026, avant l’entrée en application des obligations en août 2026.

En France, même avant l’AI Act, la tromperie est déjà un risque juridique

Même sans texte “spécial IA” applicable à tous les cas, le droit de la consommation français sanctionne déjà les pratiques commerciales trompeuses : éléments faux, présentations de nature à induire en erreur, ou omission d’informations substantielles conduisant le consommateur à prendre une décision qu’il n’aurait pas prise autrement.

Traduction social media :
si une marque diffuse un faux UGC, un faux témoignage, un faux avant/après, un faux client, ou une image de produit ultra-réaliste qui laisse croire à une situation réelle alors qu’elle est synthétique, elle ne joue pas juste avec l’esthétique. Elle s’expose à un risque de tromperie.

Aux États-Unis, le cadre avance par briques

En Californie, le cadre sur la transparence des contenus générés ou modifiés par IA a continué d’évoluer en 2025. D’après les analyses juridiques jointes, la mise en œuvre du California AI Content Transparency Act a été repoussée au 2 août 2026, avec en plus des obligations futures pour de grandes plateformes autour de la détection de données de provenance.

Toujours aux États-Unis, la FTC a déjà pris une ligne dure contre les faux avis et faux témoignages, y compris ceux générés par IA : la règle finale de 2024 interdit les avis ou témoignages qui font croire qu’ils viennent d’une personne réelle ou d’une expérience authentique alors que ce n’est pas le cas.

Le point-clé à faire passer dans l’épisode

La loi ne dit pas : “mentionnez ChatGPT dès que vous avez reformulé une phrase.”
Elle dit en substance :
quand l’IA peut tromper sur l’identité, la réalité, l’authenticité ou la nature du contenu, la transparence devient une obligation ou, au minimum, une forte exigence de conformité.


2. Ce que dit la déontologie : la vraie règle, c’est ne pas tromper et assumer la responsabilité humaine

La déontologie est plus large que la loi.
Elle pose une question simple : même si je peux juridiquement publier ce contenu, est-ce que je respecte mon audience ?

Premier principe : ne pas fabriquer de faux humain

Côté communication et marketing, le Code ICC 2024 reste la grande boussole internationale. Il rappelle que les communications marketing doivent être légales, décentes, honnêtes et véridiques, quel que soit le média ou la technologie employée.

Autrement dit :
l’IA ne crée pas un droit spécial au flou.
Si tu utilises l’IA pour simuler un client, un créateur, une recommandation ou une preuve sociale, tu dois te demander non pas “est-ce que c’est joli ?”, mais “est-ce que je fais croire à quelque chose qui n’existe pas ?”

Deuxième principe : la responsabilité reste humaine

Du côté des médias, l’Associated Press dit très clairement que l’IA ne remplace pas le rôle central du journaliste, et que la responsabilité de l’exactitude et de l’équité reste humaine. AP traite d’ailleurs toute sortie d’IA générative comme une source non vérifiée et exige un étiquetage clair si une illustration IA est utilisée comme telle.

Même logique chez SPJ : une pratique éthique suppose d’expliquer ses choix au public et d’être transparent sur les processus quand cela compte pour la compréhension et la confiance.

Troisième principe : la transparence doit être proportionnée

La déontologie ne dit pas forcément “label partout”.
Elle dit plutôt :
plus le contenu se rapproche du réel, d’une preuve, d’un témoignage, d’une personne identifiable ou d’une information sensible, plus la transparence doit être forte.

C’est là qu’il faut sortir du débat binaire.
Entre “on ne dit jamais rien” et “on met IA sur chaque phrase relue”, il y a une échelle raisonnable :

  • usage invisible mais bénin : reformulation, correction, traduction, idéation ;
  • usage visible mais non trompeur : illustration créative, vignette stylisée, avatar assumé ;
  • usage potentiellement trompeur : voix clonée, faux UGC, faux visage, événement fictif réaliste, contenu d’actualité généré.

La déontologie pousse à être surtout transparent sur le troisième étage.


3. Ce que veulent les audiences : elles ne demandent pas un procès-verbal, elles demandent de la clarté

Tes sources vont toutes dans le même sens : la transparence est devenue une attente de base.

Selon l’IPA, 74 % des consommateurs estiment que les marques devraient être transparentes sur leur usage de contenus générés par IA, et 75 % veulent être notifiés quand ils n’interagissent pas avec une vraie personne.

Côté médias, une enquête EMARKETER indique que 61,3 % des consommateurs américains pensent que les publications média devraient toujours divulguer quand un contenu est créé par IA. La même synthèse rapporte qu’49 % des adultes dans le monde veulent un label quand une image est créée par IA à la place d’une vraie photo, et que 40 % des adultes américains jugent ces contenus moins dignes d’être payés que des contenus traditionnels.

Le message est fort :

  • la transparence est une attente de confiance ;
  • elle joue aussi sur la valeur perçue du contenu ;
  • cacher l’usage de l’IA peut coûter plus cher en réputation que ce que l’IA fait gagner en productivité.

4. Ce que font les autres : les plateformes et les médias avancent déjà vers le disclosure ciblé

YouTube : obligation de disclosure pour le contenu réaliste altéré ou synthétique

YouTube demande aux créateurs de divulguer les contenus meaningfully altered or synthetically generated quand ils paraissent réalistes. Les cas visés incluent :

  • faire dire ou faire faire quelque chose à une vraie personne ;
  • altérer une séquence d’un événement ou d’un lieu réel ;
  • générer une scène réaliste qui n’a jamais eu lieu.
    Le label passe par un réglage “altered content” dans YouTube Studio.

TikTok : label créateur + label automatique

TikTok explique encourager l’étiquetage des contenus entièrement générés ou significativement modifiés par IA, et exige une mention pour les contenus IA contenant des images, sons ou vidéos réalistes. La plateforme propose à la fois un label ajouté par le créateur et un label automatique quand ses systèmes détectent un usage de l’IA. TikTok précise aussi que certains contenus synthétiques restent interdits même s’ils sont étiquetés, notamment certains usages impliquant des personnalités publiques.

Meta : label des contenus IA et disclosure renforcé pour les contenus sensibles

Meta a déployé un système de labellisation des contenus organiques générés par IA sur Facebook, Instagram et Threads, et demande aussi des disclosures dans certains cas pour les publicités politiques ou sur des enjeux sociaux. Meta indique par ailleurs avoir entendu un fort soutien à un label plus visible dans les scénarios à risque élevé.

Les médias sérieux : pas “IA partout”, mais transparence là où ça change le sens du contenu

L’Associated Press refuse d’utiliser l’IA générative pour produire directement du contenu publiable et exige qu’une illustration IA soit clairement signalée comme telle si elle est utilisée dans un cadre éditorial.Donc, quand on demande “que font les autres ?”, la réponse est :
les acteurs sérieux ne signalent pas forcément la micro-assistance, mais ils signalent de plus en plus ce qui peut être pris pour du réel.



Partager cet épisode

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *