Le 25 septembre 2024, Meta a publié Llama 3.2 qui comprend des modèles de vision de petite et moyenne taille (11B et 90B) ainsi que des modèles légers 1B et 3B s'exécutant localement sur l'appareil. Les modèles Vision de Llama 3.2 prennent en charge les cas d'utilisation du raisonnement à partir d'images, tels que la compréhension au niveau des documents, le sous-titrage d'images et les tâches de repérage visuel.
Les utilisateurs de Facebook et d'Instagram pourront désormais parler à des voix qui ressemblent beaucoup à celles de John Cena et de Judi Dench. Il ne s'agira toutefois pas des vrais acteurs, mais d'un chatbot d'IA. La société mère Meta a annoncé qu'elle ajoutait des conversations vocales et des voix de célébrités à son chatbot d'IA, Meta AI.
Désormais, au lieu de se contenter d'envoyer des messages au chatbot, les utilisateurs peuvent avoir des conversations en temps réel et choisir parmi une sélection de voix générées par ordinateur ou de voix de célébrités. L'entreprise s'est associée à John Cena et Judi Dench, ainsi qu'aux acteurs Kristen Bell, Awkwafina et Keegan-Michael Key, pour entraîner le chatbot à reproduire leurs voix.
Cette mise à jour intervient alors que Meta cherche à aider son chatbot d'IA (disponible sur Facebook, Instagram, WhatsApp et Threads) à suivre le rythme des produits concurrents, notamment ChatGPT, qui déploie son propre mode vocal avancé. Mark Zuckerberg, PDG de Meta, a déclaré que Meta AI est en passe de devenir "l'assistant d'IA le plus utilisé au monde" d'ici la fin de l'année, probablement grâce aux plus de 3 milliards de personnes qui utilisent les applications de la société chaque jour, bien que la manière dont Meta mesure l'utilisation du chatbot et la fréquence à laquelle les gens s'engagent avec l'outil ne soit pas claire.
La société concurrente OpenAI a été critiquée au début de l'année lorsqu'elle a présenté sa propre fonction de mode vocal en temps réel pour ChatGPT à cause d'une voix de démonstration qui ressemblait remarquablement à celle de l'actrice Scarlett Johansson, qui a déclaré qu'on lui avait demandé de participer au projet, mais qu'elle avait refusé. OpenAI a nié que la voix, surnommée Sky, était basée sur Johansson, mais a tout de même suspendu son utilisation. Contrairement à cette débâcle, Meta semble avoir formé des partenariats formels avec les acteurs dont les voix ont été utilisées pour former son outil.
Zuckerberg a annoncé le nouveau mode vocal lors de son discours d'ouverture de la conférence annuelle Meta Connect, au cours de laquelle il a également présenté d'autres avancées en matière d'IA, une nouvelle version moins chère des casques Quest de Meta et des mises à jour de la gamme de lunettes RayBan de réalité augmentée de l'entreprise.
Parmi les autres annonces notables : Meta permettra désormais aux influenceurs des médias sociaux de créer des versions IA d'eux-mêmes. Auparavant, les influenceurs pouvaient entraîner l'IA à avoir des conversations textuelles avec les personnes qui les suivent. Désormais, les personnes qui les suivent pourront avoir des appels quasi-vidéo avec les versions IA des influenceurs qui utilisent l'outil.
La technologie d'IA de Meta permettra également de traduire et de doubler automatiquement les Reels (vidéos de courte durée de Meta) en langue étrangère pour les téléspectateurs. Ainsi, si vous parlez anglais mais qu'une Reels créée à l'origine en espagnol arrive sur votre fil d'actualité, elle apparaîtra dans votre fil d'actualité comme si elle avait été réalisée en anglais, avec des modifications de la bouche du locuteur pour que le doublage ait l'air naturel.
Et vous pourriez commencer à voir plus de contenu généré par l'IA dans vos fils d'actualité Facebook et Instagram. Meta annonce qu'elle commencera à générer et à partager des images générées par l'IA sur les fils d'actualité des utilisateurs en fonction de leurs "centres d'intérêt ou des tendances actuelles", une fonctionnalité qu'elle appelle "imaginée pour vous". Il n'est pas précisé si les utilisateurs pourront se désengager de cette fonctionnalité s'ils préfèrent ne voir que le contenu de leurs vrais amis humains.
Et vous ?
Pensez-vous que cette fonctionnalité est crédible ou pertinente ?
Quel est votre avis sur le sujet ?
Voir aussi :
Meta lance Meta AI et 28 IA ayant des « personnalités » incarnées par des célébrités telles que Snoop Dogg, Kendall Jenner et Paris Hilton, afin d'accroître l'interaction des jeunes avec l'IA
ChatGPT Advanced Voice Mode impressionne les testeurs par ses effets sonores et sa capacité à reprendre son souffle. Il corrige la prononciation de mots français, en donnant des indications sur l'inflexion
VALL-E 2 : la nouvelle technologie vocale d'IA de Microsoft atteint pour la première fois la parité avec l'humain, elle est si aboutie que par peur d'une utilisation abusive, elle ne sera pas publiée