Un peu plus d’un an après le lancement grand public de ChatGPT, la techno est déjà largement intégré à nos quotidiens.

C’est hallucinant de voir à quelle vitesse cette nouvelle technologie a été apprivoisée et acceptée par les utilisateurs grands public.

En Janvier 2023, Chat GPT était encore une énigme ou un truc futuriste pour nombre d’utilisateurs. Aujourd’hui c’est un outil que nous utilisons quotidiennement.

En Novembre, Open Ai lance les GPTs. Un outil permettant de concevoir son propre Chatbot réalisé sur-mesure pour ses besoins.

Je peux créer un GPT sur-mesure pour m’aider à concevoir des recettes sur la base de mes intolérances alimentaires, un GPT qui imite ma tonalité de marque et me propose des angles d’écriture, un GPT expert en Donjon et Dragon qui va me permettre d’écrire mes prochaines quêtes…

Open AI continue de démocratiser son modèle 

Ces GPTS je peux aussi les partager dans une bibliothèque ouverte à tous. Aujourd’hui cette bibliothèque collective rassemble plus de 300K GPTS créés par la communauté.

C’est une petite révolution. 

Autre news, Open AI a lancé un abonnement dédié aux équipes et aux entreprises

Ca aussi c’est un facteur déterminant pour démocratiser les usages.

Open AI améliore encore Dall-E avec un éditeur d’images

Cela fait maintenant plusieurs mois qu’Open Ai a intégré Dall-E à Chat GPT. Dall-E c’est un modèle d’IA générative d’images. 

Aujourd’hui je peux demander à ChatGPT de me générer une image d’un petit chat qui fait du vélo et il va utiliser la techno Dall-E pour générer le visuel.

Jusqu’à présent Dall’E restait un cran en dessous de ce que pouvait proposer des concurrents comme MidJourney.

Par exemple, il était possible d’apporter des modifications à un visuel généré. Il fallait éventuellement repasser par la case Photoshop et intégrer les modifications souhaitées.


Mais Open Ai vient d’ajouter une fonction game changer.

On peut désormais modifier une image générée par l’IA. On clique sur l’image et un éditeur s’ouvre et permet de sélectionner une partie d’image que l’on souhaite modifier.

Je peux par exemple demander à Dall-E de retoucher mon image de petit chat qui fait du vélo en lui joutant un chapeau. Je vais sélectionner la zone et écrire une commande du type « ajoute un chapeau » et Dall-E va conserver la même image, mais y intégrer un nouvel élément.

Ultra puissant ! 

OpenAi lance Voice Engine : un modèle de clonage de voix par IA

Voilà 10 jours qu’Open Ai vient à nouveau de lancer une gros pavé dans la marre. Après la photo, la vidéo, ils ont décidé de s’attaquer à l’audio.

Ou plus précisément au clonage de voix. 

La promesse à de quoi faire flipper : Voice Engin est capable de générer une voix naturelle imitant à la perfection la voix de l’orateur original. 

Plus impressionnant encore, il n’a besoin que de 15 secondes d’extrait son pour cloner une voix.

https://openai.com/blog/navigating-the-challenges-and-opportunities-of-synthetic-voices

A quoi peut bien servir Voice Engine ?

Open AI propose plusieurs cas d’usage très concrets de sa techno.

Aide à la lecture : L’IA peut transformer n’importe quel texte en fichier audio super naturel et réaliste. On imagine des application immédiates en matière d’AudioBook et même de podcast.

En théorie, sortir une version du Super Daily 100% généré par IA avec nos voix sera faisable d’ici quelques mois !

On peut aussi imaginer, que des voix off de célébrités dans les publicités, puissent être créées en quelques secondes

La traduction de contenu à la volée : Tout ce qui est doublage va être radicalement transformé. Demain, je vais pouvoir doubler en Allemand l’intégralité d’une vidéo Youtube tout en conservant ma voix et mes intonations.

L’assistance aux personnes muettes ou en situation de handicap sévère : OpenAi annonce que Voice Engine pourrait modifier le quotidien de milliers de personnes en s’intégrant à des dispositifs permettant de proposer une voix à ceux qui n’en sont pas.

Le clonage de voix est une opération complexe lorsqu’il s’agit de traduction

La plus part des démos fournies par OpenAI sont en langue anglaise et il faut dire que les résultats sont bluffant. Il est quasiment impossible de distinguer la voix originale de celle clonée par l’IA.

Lorsque la voix est traduite en français par exemple, elle embarque avec elle un accent anglais. OpenAi précise pour l’instant, les voix clonées embarquent avec elle leur accent d’origine.

Donc si je clone ma voix et que je traduit en anglais, je vais garder un petit « je ne sais quoi » d’accent français.

Dans son communiqué, OpenAi nous apprend aussi que Voice Engine est en test depuis maintenant plusieurs mois par le service Heygen

Evidemment le clonage de voix posent de nombreux questions en matière de sécurité et de désinformation

Les risques d’utilisation abusive sont énormes et inévitables.

POur l’instant Open Ai n’offre pas d’accès grand public à Voice Engine. L’entreprise dit souhaiter d’abord déployer sur un public expert et très limité avant d’envisager une ouverture plus large de l’API.

OpenAi a annoncé le lancement prochain de Sora une IA générative de vidéo

Sora est un modèle d’IA capable de créer des scènes vidéos réalistes et créatives à partir d’instructions textuelles.

Il y a 2 mois On avait pris une belle claque avec les images d’une femme marchant dans la rue au japon et depuis on en a moins entendu parler.

Ce qu’il faut savoir c’est que depuis son lancement Sora est en Beta test chez plusieurs créateurs et artistes qui font des trucs de ouf et j’ai trouvé une récente vidéo des avancées c’est impressionnant.

Dans la vidéo on peut voir des humains travaillés dans un style fantastique comme des sirènes, des œuvres d’art vraiment très stylées visibles en 3D et en 360 et un truc qui m’a fait bcp rire des animaux imaginaires comme le flamant girafe ou le chat sirène; Le Résultant est bluffant;

Aujourd’hui Sora est mis entre les mains de créatifs et artistes pour pousser les limits du modèle. Les vidéos qui sortent sur le compte Instagram d’Open Ai sont hallucinantes.

https://www.instagram.com/reel/C5XBaDiP9B5/?hl=fr

Sora est capable de générer des scènes complexes avec plusieurs personnages, des types de mouvements spécifiques et des détails précis concernant le sujet principal de la vidéo et l’arrière-plan. 

Sora peut également créer plusieurs plans dans une seule vidéo générée. L’une des révolution tient notamment au fait que chacun de ces plans conservera avec précision les personnages et le style visuel. C’est une grande nouveauté pour les IA.

——

. . .  Le Super Daily est le podcast quotidien sur les réseaux sociaux. Il est fabriqué avec une pluie d’amour par les équipes de Supernatifs. Nous sommes une agence social media basée à Lyon : https://supernatifs.com. Ensemble, nous aidons les entreprises à créer des relations durables et rentables avec leurs audiences. Ensemble, nous inventons, produisons et diffusons des contenus qui engagent vos collaborateurs, vos prospects et vos consommateurs.



Partager cet épisode

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *