Depuis 6 mois, Meta a passé la seconde en matière d’IA. Ils embauchent des ingénieurs et des chercheurs à tour de bras et Zuckerberg a d’ores et déjà annoncé que l’IA serait la priorité d’investissement numéro 1 du groupe en 2024.

Passé le relatif flop du Metaverse, Zuckerberg s’est trouvé dos au mur et contraint d’appuyer sur le champignon pour ne pas rater le train de l’intelligence artificielle.

Meta dispose de son propre modèle de Langage : Llama 2 

Peut-on véritablement être un poids lourd de la tech sans avoir son propre LLM (modèle de Langage) ?
Mais si un LLM, un modèle de Langage. Les modèles de langage sont ces systèmes informatiques surpuissants qui ont comme mission de traduire le langage naturel à la machine, et permettre à celle-ci de comprendre, analyser et répondre. En gros c’est le langage nécessaire pour développer une intelligence artificielle.

Open AI a Chat GPT 4 et Meta a développé Llama 2.

Particularité de Llama 2, elle est gratuite pour tous et est publiée en code source ouvert.

Si vous voulez tester le chat de Llama 2

https://www.llama2.ai/

Meta lance Meta AI

C’est sur la base de Llama2 que Meta a annoncé courant septembre l’intégration de chatbots IA a ses plateformes Facebook, Instagram et WhatsApp. Ça s’appelle Meta AI.

Meta AI est en cours de déploiement et pourra être interrogé directement ou intervenir dans les conversations de groupe des utilisateurs pour répondre à des questions.

https://www.usinenouvelle.com/mediatheque/7/0/7/001482707_illustration_large.jpg

——

Emu : La Révolution de la Génération de Texte en Vidéo et de l’Édition d’Images

D’après l’article de AI Meta Blog sur Emu, cette technologie marque un tournant dans la création de contenu sur les plateformes de Meta. 

Emu est une avancée significative dans l’IA générative, capable de convertir des descriptions textuelles en vidéos réalistes. 

Cette capacité ouvre un champ immense pour les créateurs de contenu, leur permettant de matérialiser des concepts et des idées en contenus visuels dynamiques sans nécessiter de compétences techniques approfondies en production vidéo.

L’outil d’Emu ne se limite pas à la création de vidéos. 

Il inclut également des fonctionnalités avancées d’édition d’images, permettant des modifications subtiles ou radicales des images existantes. 

Cela peut aller de la modification de l’arrière-plan à des changements plus complexes dans le style ou l’apparence des sujets dans les images. 

Cette polyvalence fait d’Emu un outil potentiellement révolutionnaire pour le marketing numérique, la publicité, et la création artistique.

——

Meta lance AudioBox : Réinventer la Création Audio avec l’IA

Là les amis, c’est du lourd.

Meta vient d’annoncer la sortie d’AudioBox. Une série d’outils dopés à l’IA qui permettent de travailler sur le son.

https://audiobox.metademolab.com/capabilities

Audiobox peut scanner et reproduire votre voix.

C’est vraiment ouf. Vous enregistrez un petit bout de texte et AudioBox va ensuite scanner cette voix et vous permettre de l’utiliser comme vous souhaitez. Vous pouvez ensuite demander à cette voix de lire un texte et c’est vraiment bluffant. Pour l’instant c’est uniquement en anglais mais les tests que j’ai pu effectuer ce matin sont juste dingues ! 

AudioBox peut créer des voix de toute pièce en partant d’un prompt

Audiobox propose un outil permettant de générer une voix particulière sur la base d’un prompt. Je peux par exemple lui demander une voix de jeune fille marchant sous la neige. Je tape ensuite le texte de mon choix et il va me proposer 2 propositions de voix. Le résultat est dingue. Il va synthétiser une voix et ajouter des effets en arrière plan.

Audiobox permet de générer des effets sonores sur la base d’un prompt

Vous avez besoin d’un son de train qui passe ou de chevaux au trot. Et bien Audiobox vous permet de faire un prompt sous forme de texte et de générer un son. Là aussi c’est une vraie nouveauté qui va faire bouger les lignes de l’industrie audio visuelle.

Audiobox intègre un watermark à chaque son généré permettant d’identifier qu’il a été créé avec une IA

——

DinoV2 : la reconnaissance vidéo en mode Black Mirror

C’est un modèle IA de vision par ordinateur.

Concrètement, Dino oV2 est en capacité d’analyser des images ou des vidéos et de décrire avec énormément de précision ce qu’il voit. Dans une scène de rue intégrant des personnes en mouvement, il peut isoler un sujet et donner des informations sur son genre, son activité, sa couleur de peau et de cheveux.

Ramené aux plateformes Social Media, cet outil permet de comprendre et lire les contenus et d’interpréter avec énormément de précision nos goûts et nos centres d’intérêt. 

https://scontent-cdg4-1.xx.fbcdn.net/v/t39.8562-6/10000000_1536179916919259_3895598407741476647_n.gif?_nc_cat=108&ccb=1-7&_nc_sid=f537c7&_nc_ohc=rPmx-fQ_jhgAX94uNqj&_nc_ht=scontent-cdg4-1.xx&oh=00_AfDX2QbFeQaPNBNkGpNlDFltnFR9KM2feMvmWQklTE-cGQ&oe=657DC47E

Dernière annonce en date, l’intégration de l’IA de reconnaissance vidéo de Meta dans leur dernière lunettes RayBan.

Avec cette intégration, Meta nous plonge en plein épisode de Black Mirror.

https://www.instagram.com/p/C0w4Agjvq5_/?igshid=MTdlMjRlYjZlMQ==



Partager cet épisode

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *