Épisode 1399 : Youpi, c’est lundi 1er Décembre et on va vous parler d’IA, de révolution et de baisse des budgets ! Accrochez vous bien

Pour 2026, les budgets media sont à la baisse en France

L’Union des Marques, la World Federation of Advertisers (WFA) et Ebiquity viennent de sortir leur étude mondiale sur les budgets médias 2026. 

Et le verdict pour la France, est assez net.

https://wfanet.org/services/connect-to-your-peers/media/media-budgets-2026

Plus de la moitié des annonceurs français prévoient de baisser leurs budgets média l’an prochain. 

52% exactement. C’est un vrai signal d’alarme. Parce que dans le même temps, au niveau mondial, les budgets repartent plutôt à la hausse. 

La France fait figure d’exception. On est clairement en mode prudence.

Les raisons de cette frilosité

Le contexte est tendu. Tensions politiques, incertitudes économiques, contexte géopolitique compliqué. Les marketeurs français jouent la carte de la maîtrise des coûts. Ils veulent du contrôle, de la performance mesurable, pas de dépenses hasardeuses.

Le retour du branding malgré tout

Et là, c’est intéressant. Malgré les budgets serrés, 29% des annonceurs veulent renforcer la part du branding dans leur mix marketing. On sort un peu de l’obsession du court terme, de la perf pure. Y’a une prise de conscience : faut pas sacrifier l’image de marque sur l’autel du ROI immédiat.

L’intégration média-création

70% des annonceurs français vont privilégier une vraie synergie entre médias et création. Fini les silos. On veut des campagnes cohérentes, agiles, pensées « full-funnel » dès le départ. C’est du bon sens, mais ça devient enfin une priorité.

Les priorités pour 2026

Conclusion, le marché français est crispé. Les budgets annoncés sont à la baissé.
Au niveau mondial, on peut parle d’un « optimisme mesuré ». Le brand building reprend des couleurs malgré les pressions économiques.

Ca y est la mode de l’IA c’est terminé ?!

Apple vient de sortir sa pub de Noël 2025, et le choix créatif est assez audacieux, voir à contre courant.

L’histoire est simple mais mignonne. Un randonneur perd son iPhone 17 Pro dans une forêt enneigée. Des animaux de la forêt le trouvent. Et là, ils font quoi ? Ils se filment en train de chanter. À la fin, le proprio retrouve son téléphone grâce à l’appli Localiser sur son Apple Watch et il découvre la vidéo laissée par les bestioles.

Une pub 100% fait main, 0% IA

Dans un monde où l’IA générative envahit tout, Apple fait le choix radical du fait main.

Le film a été tourné avec 9 marionnettes fabriquées artisanalement. Pas de CGI, pas d’effets numériques. On sent la texture, on devine presque les fils. C’est volontairement imparfait. Et c’est ça qui fait le charme.

Apple a aussi sorti un making-of. 

Et franchement, il vaut le coup. On y voit les marionnettistes en combinaisons bleues intégrales qui s’agitent autour des animaux pour leur donner vie.

Le positionnement stratégique

C’est malin comme stratégie. Apple se positionne comme l’outil qui capture la créativité humaine, pas celui qui la remplace. Le téléphone s’efface pour sublimer le travail manuel et l’émotion brute.

En 2025, faire le choix de construire physiquement des marionnettes, c’est presque un acte militant. Un « statement ». Apple nous dit implicitement : la techno la plus avancée, c’est celle qui sait s’effacer pour laisser place à l’humain.

Chat GPT vient de fête ses 3 ans 

Le 30 novembre 2022, OpenAI lançait ChatGPT. Un petit communiqué sobre, qui parlait juste d’un « modèle qui interagit de manière conversationnelle ». Trois ans plus tard, on peut dire sans exagérer que le monde de la tech et du business a complètement changé.

Aujourd’hui encore, ChatGPT trône à la première place des apps gratuites sur l’App Store. Pas mal pour un « simple » chatbot.

Quand on parle d’OpenAi , certains experts considère que l’entreprise est devenu plus puissant que la plupart des États-nations.

En 3 ans tout a changé

Paradoxalement, Chat GPT a rajouté du doute.

Les jeunes générations se préparent à entrer sur un marché du travail dont on leur dit qu’il n’y a plus de trajectoire prévisible. Les générations plus âgées s’entendent dire que le futur sera méconnaissable, que leurs compétences pourraient devenir obsolètes.

Même les investisseurs et les enthousiastes de l’IA attendent. Ils attendent de voir si leurs paris vont payer. Parce que l’IA générative, par définition, n’est jamais dans sa forme finale. C’est un produit en perpétuelle mutation.

Du doute et aussi paradoxalement de l’inertie. 

L’impact sur les marchés financiers

Côté bourse, les chiffres sont dingues. 

Nvidia a pris +979% depuis le lancement de ChatGPT. Presque mille pour cent en trois ans.

Les sept entreprises les plus valorisées du S&P 500 sont toutes liées à la tech et à l’IA : Nvidia, Microsoft, Apple, Alphabet, Amazon, Meta et Broadcom.

À elles seules, elles représentent près de la moitié de la hausse de 64% de l’indice depuis novembre 2022.

Résultat : le marché est devenu très concentré. Ces sept géants pèsent maintenant 35% du S&P 500, contre 20% il y a trois ans. C’est un déséquilibre assez inédit.

Si on résume : trois ans après son lancement, ChatGPT a déclenché une course mondiale à l’IA, fait exploser les valorisations boursières, créé une anxiété générationnelle et rendu OpenAI plus influent que beaucoup de gouvernements.


ET si tout ça était une bulle ?

C’est la question que tout le monde se pose. Et même les dirigeants de l’IA commencent à l’admettre.
Sam Altman le patron d’open AI lui même exprimait en Aout 2025 ses doutes sur les effets d’enchère lié à l’IA.

Bret Taylor, le président du conseil d’OpenAI et CEO de Sierra, confirme : on est dans une bulle. Il compare ça au boom des dot-com de la fin des années 90. Des entreprises vont couler, c’est certain.

Meta / Instagram & Facebook : traduction automatique des Reels via IA

•Meta a déployé une fonctionnalité d’IA — « Meta AI » — permettant de traduire automatiquement l’audio des Reels publiés sur Instagram et Facebook.  

•Concrètement, l’outil traduit la voix d’origine dans une langue cible, tout en recréant une piste audio doublée. Il synchronise aussi les mouvements des lèvres (lip‑sync) pour rendre le doublage plus naturel, et reproduit le ton de la voix originale.  

•L’utilisateur peut choisir la langue de traduction, parmi les langues initialement proposées (anglais, espagnol, portugais, hindi), d’autres devant suivre.  

•Pour bénéficier de la fonctionnalité, il faut : être dans un pays où Meta AI est déployé (c’est le cas en France), disposer d’un compte créateur ou d’une page professionnelle, et avoir au moins 1 000 abonnés.  

Après création du Reel, Défilez jusqu’au bas de l’écran de publication et cliquez sur Plus d’options, puis activez l’option Traduire les voix avec Meta AI,

Dès lors que la fonction est activée, vous pouvez cliquer sur Modifiez vos paramètres de traduction pour inclure le playback (synchronisation labiale), choisir les langues traduites ou demander à approuver les traductions avant publication.

Intérêts & usage pros

• Gain de productivité : plus besoin d’un travail manuel de doublage.  

• Meilleure portée internationale : un Reel tourné en français peut être instantanément accessible à un public anglophone, hispanophone, etc.  

• Amélioration de l’accessibilité, au-delà des sous-titres : le doublage et le lip‑sync rendent l’expérience plus immersive pour un public ne parlant pas la langue d’origine.  

https://www.blogdumoderateur.com/instagram-comment-traduire-automatiquement-reels-meta-ai

YouTube élargit l’accès aux fonctionnalités de l’IA de la génération

YouTube teste et élargit tout un portefeuille de fonctionnalités d’IA générative autour de Shorts et de l’appli YouTube Create, avec un focus sur la facilité de production (clip auto, image‑to‑video, musique générative) et sur un hub central “AI Playground”.

L’option de clips autonomes de YouTube vous permet de générer un court métrage à l’aide de l’IA, tandis que l’écran vert génère des arrière-plans pour vos courts métrages.

Création et Animation Vidéo

Clips autonomes (Standalone Clips) : Une option permettant de générer entièrement un “Short” grâce à l’IA.

Green screen IA : génération de fonds vidéo/visuels pour Shorts, façon fond vert virtuel, pour multiplier les décors et mises en scène sans tournage.

Image-to-Video amélioré : Cette fonctionnalité permet d’animer des images fixes. Les créateurs peuvent partir d’un prompt, donner vie à des images fixes et même ajouter de la parole pour “donner une voix” à la vidéo.

Modèle DeepMind V3 pour les Shorts : YouTube a mis à jour son modèle DeepMind avec une V3.

Cela permet désormais de créer des vidéos allant jusqu’à 8 secondes (contre 6 auparavant) avec des effets sonores synchronisés, de l’audio ambiant et de la parole.

Écrans verts (Green Screen) : Génération d’arrière-plans par IA pour les vidéos Shorts.

Outils Audio et Musicaux

Speech-to-Song : Une fonctionnalité qui transforme un discours normal en une piste musicale mixée.

Dream Track : la possibilité d’ajouter des paroles et des voix générées par IA.

Intégration dans “YouTube Create” (App d’édition)

Modèle Veo 3 Fast : Intégration du dernier modèle de Google dans l’application de montage dédiée. Il permet de générer des clips verticaux manquants (“b-roll”) en contrôlant l’éclairage et le style pour obtenir le plan exact dont le créateur a besoin.

Edit with AI : Une fonction capable de monter automatiquement des vidéos à partir de séquences brutes, en y ajoutant musique et effets.

Le “AI Playground”

Toutes ces fonctionnalités sont progressivement centralisées dans le “AI Playground”, un hub dédié aux outils expérimentaux de YouTube, dont l’accès est élargi à davantage de créateurs.

https://www.socialmediatoday.com/news/youtube-expands-access-to-gen-ai-features-adds-communities-features/806508



Partager cet épisode

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *