Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

IA : des chercheurs ont montré que les machines peuvent apprendre sans surveillance, à la vitesse de la lumière
Grâce à un processeur tenseur photonique, plus rapide et plus économe en énergie

Le , par Bill Fassinou

82PARTAGES

9  0 
Des chercheurs de l'Université George Washington aux États-Unis ont réalisé une percée dans le développement de l'intelligence artificielle en utilisant la lumière au lieu de l'électricité pour effectuer des calculs. Ils ont découvert que l'utilisation de photons dans des unités de traitement de réseau neuronal (tenseur) (TPU) pouvait surmonter ces limitations et créer une IA plus puissante et plus économe en énergie. La nouvelle approche améliore considérablement à la fois la vitesse et l'efficacité des réseaux de neurones d'apprentissage automatique - une forme d'IA qui vise à reproduire les fonctions exécutées par un cerveau humain afin de s'enseigner une tâche sans supervision.

Viser à reproduire les fonctionnalités du cerveau reste un défi captivant, qui non seulement inspire les exploits humains, mais qui a également démontré une utilité technologique pour les entreprises. En effet, l'apprentissage automatique (ML), réalisé par les réseaux de neurones (NN), est devenu une approche populaire de l'intelligence artificielle (IA) et consiste à former un système pour apprendre à effectuer des classifications de décision non supervisées sur des données invisibles; une fois qu'un réseau de neurones est formé, il peut être implémenté pour produire une inférence, en d'autres termes, reconnaître et classer des objets ou des modèles.

Depuis l'aube de l'ère informatique, les chercheurs ont étudié des moyens optimisés pour multiplier efficacement les matrices. Selon les chercheurs, « concevoir une plateforme qui effectue une multiplication matricielle plus rapide et économe en énergie permet de résoudre des problèmes algébriques linéaires, tels que l'inversion de matrices, des systèmes d'équations linéaires et la recherche de déterminants. Même quelques algorithmes graphiques de base 7 sont gênés par la vitesse à laquelle la multiplication matricielle est calculée ».


Pour un processeur polyvalent offrant une grande flexibilité de calcul, ces opérations matricielles se déroulent en série (c'est-à-dire une à la fois) tout en nécessitant un accès continu à la mémoire cache, générant ainsi ce qu'on appelle le "goulot d'étranglement de von Neumann". Des architectures spécialisées pour les réseaux de neurones, telles que les unités de processus graphiques (GPU) et les unités de processus Tensor (TPU), ont été conçues pour réduire l'effet du goulot d'étranglement de von Neumann, permettant des modèles d'apprentissage automatique de pointe. Le paradigme de ces architectures est d'offrir une spécificité de domaine, comme l'optimisation des convolutions ou des multiplications matricielles vectorielles (MVM) effectuant des opérations, contrairement aux CPU, en parallèle et donc le déploiement d'un algorithme systolique.

Les GPU ont des milliers de cœurs de traitement optimisés pour les opérations mathématiques matricielles. Cependant, les chercheurs pensent que lorsqu'ils sont utilisés pour implémenter des inférences NN approfondies sur de grands ensembles de données bidimensionnels tels que des images, ils sont plutôt gourmands en énergie et nécessitent un temps d'exécution de calcul plus long (> dizaines de ms). De plus, la multiplication matricielle plus petite pour les tâches d'inférence moins complexes est encore confrontée à une latence non négligeable, principalement due à la surcharge d'accès des différentes hiérarchies mémoire et à la latence d'exécution de chaque instruction dans le GPU.

Dans ce contexte de matériel informatique pour obtenir des architectures qui imitent efficacement les circuits biologiques du cerveau, les chercheurs pensent qu'il est nécessaire d'explorer et de réinventer les paradigmes opérationnels des plateformes informatiques logiques actuelles. Dans ce changement de paradigme, ils ont trouvé que la nature ondulatoire de la lumière et les opérations inhérentes associées, telles que les interférences et la diffraction, peuvent jouer un rôle majeur dans l'amélioration du débit de calcul et la réduction simultanée de la consommation d'énergie des plateformes neuromorphiques.

Pour les chercheurs, ce travail représente la première approche vers la réalisation d'un processeur tenseur photonique stockant des données et un traitement en parallèle, qui pourrait faire évoluer le nombre d'opérations de multiplication-accumulation (MAC) de plusieurs ordres de grandeur tout en supprimant de manière significative la consommation d'énergie et la latence par rapport à l'état-accélérateurs matériels de pointe offrant des analyses en temps réel. Un article décrivant la recherche, publié hier dans la revue scientifique Applied Physics Reviews, révèle que leur TPU à base de photons était capable de fonctionner entre 2 et 3 ordres de grandeur plus élevés qu'un TPU électrique.

« Nous avons découvert que les plateformes photoniques intégrées qui intègrent une mémoire optique efficace peuvent obtenir les mêmes opérations qu'une unité de traitement de tenseur, mais elles consomment une fraction de l'énergie et ont un débit plus élevé. Lorsqu'elles sont correctement formées, les plateformes peuvent être utilisées pour effectuer des interférences à la vitesse de la lumière », a déclaré Mario Miscuglio, l'un des auteurs de l'article.

Source : Résultat de l'étude

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi

« L'intelligence artificielle n'existe pas et la voiture autonome n'existera jamais », selon un expert en IA

L'intelligence artificielle menace-t-elle la démocratie dans le monde ? Oui, selon un conseiller principal à la Commission européenne

La recherche et le développement en intelligence artificielle sont en plein essor, mais l'intelligence générale est toujours hors de portée selon un rapport

Les chercheurs en intelligence artificielle peuvent-ils gagner jusqu'à 1 million $ par an dans la Silicon Valley ? Un aperçu des salaires

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de mach1974
Nouveau membre du Club https://www.developpez.com
Le 22/07/2020 à 12:59
Ils ont un train de retard car il y a déjà une offre pour les big datas en co processeur et en pcm avec changement d'état
https://www.optalysys.com/
0  0