Dans un mouvement stratégique visant à renforcer ses capacités en intelligence artificielle (IA) et en vision par ordinateur, Apple a récemment acquis Datakalab, une start-up basée à Paris. Fondée par Xavier et Lucas Fischer en 2016, Datakalab s’est distinguée par son expertise dans la compression d’algorithmes et les systèmes d’IA embarqués. Avant son acquisition, Datakalab comptait entre 10 et 20 employés et avait collaboré avec le gouvernement français et Disney, entre autres. La technologie développée par la start-up permet d’analyser les émotions humaines par reconnaissance faciale et données visuelles, utilisées notamment pour surveiller les réactions du public en temps réel lors de projections cinématographiques.Les LLM sont des systèmes d’intelligence artificielle capables de comprendre et de générer du langage naturel à partir de grandes quantités de données textuelles. Des exemples de LLM sont GPT-3 et GPT-4 d’OpenAI, qui peuvent produire des textes cohérents et variés sur n’importe quel sujet, allant des articles de presse aux poèmes en passant par les codes informatiques. Ces modèles sont très puissants, mais aussi très gourmands en mémoire et en ressources de calcul, ce qui pose un défi pour les déployer sur des appareils mobiles comme les iPhone, qui ont une capacité de mémoire limitée.
Pour relever ce défi, les chercheurs d’Apple ont développé une technique innovante qui utilise la mémoire flash - la même mémoire où sont stockées vos applications et vos photos - pour stocker les données du modèle de langage. Cette technique permet de réduire le transfert de données entre la mémoire flash et la mémoire vive (RAM), et d’augmenter le débit de la mémoire flash, ce qui accélère le processus d’inférence du modèle de langage. C'est en tout cas ce qu'a suggéré une étude publiée en décembre.
L'article de recherche est intitulé "LLM in a flash : Efficient Large Language Model Inference with Limited Memory". Les auteurs y notent que la mémoire flash est plus abondante dans les appareils mobiles que la mémoire vive traditionnellement utilisée pour l'exécution des modèles. Ainsi, leur méthode contourne astucieusement cette limitation en utilisant deux techniques clés qui minimisent le transfert de données et maximisent le débit de la mémoire flash :
- le fenêtrage : il s'agit d'une méthode de recyclage. Au lieu de charger de nouvelles données chaque fois, le modèle d'IA réutilise une partie des données qu'il a déjà traitées. Cela réduit la nécessité d'aller constamment chercher des données en mémoire, ce qui rend le processus plus rapide et plus fluide ;
- regroupement lignes-colonnes : cette technique revient à lire un livre par morceaux plutôt qu'un mot à la fois. En regroupant les données plus efficacement, elles peuvent être lues plus rapidement à partir de la mémoire flash, ce qui accélère la capacité de l'IA à comprendre et à générer du langage.
Datakalab s'est spécialisé dans les algorithmes qui fonctionnent entièrement sur l'appareil
Apple adopterait donc une approche différente de l'IA générative. Alors que les fonctions d'IA générative sur les appareils sont actuellement soutenues par de grands modèles de langage côté serveur, Apple souhaite exécuter les LLM sur les appareils. Cela l'aidera à garantir la confidentialité des utilisateurs, puisque les données de ces derniers n'ont pas besoin de quitter les iPhone pour atteindre des serveurs, qui peuvent être partagés.
Toutefois, les modèles sur appareil ne peuvent pas tout faire. Apple doit développer un modèle suffisamment performant tout en étant économe en énergie. Mais cela prendra du temps. Et c'est exactement là que l'acquisition de la startup française Datakalab devient pertinente puisqu'elle le propose depuis 2017.
Datakalab s'est spécialisée dans les algorithmes d'apprentissage profond à faible consommation d'énergie, efficaces en termes d'exécution, respectueux de la vie privée et fonctionnant entièrement sur l'appareil (en embarqué donc). Ses travaux de recherche ont donné lieu à des publications dans les meilleures conférences et journaux du domaine (T-PAMI, NeurIPS, ICCV, CVPR, AAAI).
Au départ, Datakalab a d’abord exploré l'usage de l'IA pour lire les émotions du visage humain. La RATP, la ville de Cannes ou encore des salles de concert ont utilisé cette technologie : il était question ces fois-là de déployer ses outils d'IA afin de vérifier si les gens portaient des masques de protection lors de la pandémie. La startup a signé avec Médiamétrie pour mesurer les...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.



