IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google dévoile l'assistant d'IA de codage "Jules", promettant des corrections de bogues autonomes et des cycles de développement plus rapides
Et offrant une aide aux développeurs en se basant sur Gemini 2.0

Le , par Anthony

37PARTAGES

6  0 
Google a dévoilé le mercredi 11 novembre « Jules », un assistant de codage doté d'une intelligence artificielle (IA) capable de corriger de manière autonome les bogues des logiciels et de préparer les modifications de code pendant que les développeurs se concentrent sur ce qu'ils veulent réellement construire, ce qui constitue une avancée significative dans le cadre des efforts déployés par l'entreprise pour automatiser les tâches de programmation essentielles.

L'agent de codage expérimental alimenté par l'IA est construit sur la plateforme de modèles d'IA Gemini 2.0 récemment annoncée par Google. Il s'intègre directement au système de flux de travail de GitHub et peut analyser des bases de code complexes, mettre en œuvre des correctifs sur plusieurs fichiers et préparer des demandes d'extraction détaillées sans supervision humaine constante.

https://youtu.be/nE4fhqvk_hA

Avec la nouvelle version de Gemini, Google donne aux développeurs les moyens de construire l'avenir de l'IA grâce à des modèles de pointe, des outils intelligents permettant d'écrire du code plus rapidement et une intégration transparente sur toutes les plateformes et tous les appareils. Depuis le lancement de Gemini 1.0 en décembre dernier, des millions de développeurs ont utilisé Google AI Studio et Vertex AI pour créer avec Gemini dans 109 langues.

La disponibilité récente du modèle d'IA expérimental Gemini 2.0 Flash permet des applications encore plus immersives et interactives, ainsi que de nouveaux agents de codage qui amélioreront les flux de travail en prenant des mesures au nom du développeur.

Construire avec Gemini 2.0 Flash

S'appuyant sur le succès de Gemini 1.5 Flash, la version 2.0 Flash est deux fois plus rapide que la version 1.5 Pro tout en étant plus performante. Elle inclut de nouvelles sorties multimodales et permet l'utilisation d'outils en mode natif. Une API multimodale en temps réel Live est également introduite pour créer des applications dynamiques avec des flux audio et vidéo en temps réel.

Dès ce 11 décembre, les développeurs peuvent tester et explorer Gemini 2.0 Flash via l'API Gemini dans Google AI Studio et Vertex AI pendant sa phase expérimentale, la disponibilité générale étant prévue pour le début de l'année prochaine.

Avec Gemini 2.0 Flash, les développeurs ont accès à :

1. De meilleures performances

Gemini 2.0 Flash est plus puissant que la version 1.5 Pro, tout en conservant la vitesse et l'efficacité que les développeurs attendent de Flash. Il offre également des performances améliorées en matière de multimodalité, de texte, de code, de vidéo, de compréhension spatiale et de raisonnement sur des benchmarks clés.

L'amélioration de la compréhension spatiale permet de générer des boîtes de délimitation plus précises pour les petits objets dans les images encombrées, et d'améliorer l'identification et le sous-titrage des objets.

https://youtu.be/-XmoDzDMqj4

2. Nouvelles modalités de sortie

Les développeurs pourront utiliser Gemini 2.0 Flash pour générer des réponses intégrées pouvant inclure du texte, du son et des images, le tout par le biais d'un seul appel API. Ces nouvelles modalités de sortie sont disponibles pour les premiers testeurs, un déploiement plus large étant prévu l'année prochaine.

Les filigranes invisibles SynthID seront activés dans toutes les sorties images et audio, ce qui contribuera à réduire les problèmes de désinformation et d'attribution erronée.

  • Sortie audio multilingue native : Gemini 2.0 Flash dispose d'une sortie audio texte-parole native qui permet aux développeurs de contrôler finement non seulement ce que le modèle dit, mais aussi comment il le dit, avec un choix de 8 voix de haute qualité et une gamme de langues et d'accents.
  • Sortie d'images native : Gemini 2.0 Flash génère désormais des images en mode natif et prend en charge l'édition conversationnelle multi-tours, ce qui vous permet de vous appuyer sur les résultats précédents et de les affiner. Il peut produire du texte et des images entrelacés, ce qui le rend utile pour les contenus multimodaux tels que les recettes.

https://youtu.be/7RqFLp0TqV0

3. Utilisation native d'outils

Gemini 2.0 a été formé à l'utilisation d'outils - une capacité fondamentale pour la construction d'expériences agentiques. Il peut appeler nativement des outils tels que Google Search et l'exécution de code, ainsi que des fonctions tierces personnalisées via l'appel de fonctions. L'utilisation native de Google Search en tant qu'outil permet d'obtenir des réponses plus factuelles et plus complètes et d'augmenter le trafic vers les éditeurs. Plusieurs recherches peuvent être effectuées en parallèle, ce qui permet d'améliorer la recherche d'informations en trouvant des faits plus pertinents à partir de plusieurs sources simultanément et en les combinant pour plus de précision.

https://youtu.be/EVzeutiojWs

4. API multimodale en temps réel

Les développeurs peuvent désormais créer des applications multimodales en temps réel avec des entrées audio et vidéo provenant de caméras ou d'écrans. Les modèles de conversation naturels tels que les interruptions et la détection de l'activité vocale sont pris en charge. L'API prend en charge l'intégration de plusieurs outils pour réaliser des cas d'utilisation complexes avec un seul appel d'API.

https://youtu.be/9hE5-98ZeCg

Les startups ont fait des progrès impressionnants avec Gemini 2.0 Flash, prototypant de nouvelles expériences comme le terrain de jeu visuel de tldraw, la création de personnages virtuels et la narration audio de Viggle, la traduction multilingue contextuelle de Toonsutra, et l'ajout de l'audio en temps réel de Rooms.

Google a publié trois expériences d'application de démarrage dans Google AI Studio, ainsi que du code source ouvert pour la compréhension spatiale, l'analyse vidéo et l'exploration de Google Maps, afin que les développeurs puissent commencer à construire avec Gemini 2.0 Flash.

Permettre l'évolution de l'assistance d'IA au codage

Alors que l'assistance au codage par l'IA évolue rapidement, passant de la simple recherche de code à des assistants dotés d'IA intégrés dans les flux de travail des développeurs, Google souhaite partager la dernière avancée qui utilisera Gemini 2.0 : des agents de codage capables d'exécuter des tâches pour le compte des utilisateurs.

Dans ses dernières recherches, Google a pu utiliser Gemini 2.0 Flash équipé d'outils d'exécution de code pour atteindre 51,8 % sur le SWE-bench Verified, qui teste les performances des agents sur des tâches d'ingénierie logicielle réelles. La vitesse d'inférence de pointe de 2.0 Flash a permis à l'agent d'échantillonner des centaines de solutions potentielles, en sélectionnant les meilleures sur la base des tests unitaires existants et du propre jugement de Gemini. Cette recherche est en train d'être transformée en nouveaux produits pour les développeurs.

Rencontrez Jules, votre agent de code doté d'une IA

Imaginez que votre équipe vient de terminer un bug bash, et que vous vous retrouvez face à une longue liste de bugs. À partir d'aujourd'hui, vous pouvez décharger les tâches de codage Python et Javascript à Jules, un agent de code expérimental alimenté par l'IA qui utilisera Gemini 2.0.

Fonctionnant de manière asynchrone et intégré à votre flux de travail GitHub, Jules s'occupe des corrections de bogues et d'autres tâches fastidieuses pendant que vous vous concentrez sur ce que vous voulez réellement construire. Jules crée des plans complets en plusieurs étapes pour résoudre les problèmes, modifie efficacement plusieurs fichiers, et prépare même des demandes d'extraction pour renvoyer les corrections directement dans GitHub.


C'est encore un peu tôt, mais d'après l'expérience interne de Google, Jules donne aux développeurs :

[LIST][*] Plus de productivité. Assignez des problèmes et des tâches de codage à Jules pour une efficacité de codage asynchrone.[*] Suivi des progrès. Restez informé et priorisez les tâches qui requièrent votre attention grâce à des mises à jour en temps réel.[*] Contrôle total par le développeur. Examinez les plans créés par Jules en cours de route, et fournissez des commentaires ou demandez des ajustements si vous le jugez nécessaire. Révisez facilement et, si nécessaire, fusionnez le code écrit par Jules[/*]...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de smarties
Expert confirmé https://www.developpez.com
Le 05/03/2025 à 9:44
60h/semaine (de 5 jours) + 10h/semaine (les trajets aller-retour domicile-travail) ce qui donne 14h à consacrer par jour au travail.

Si on ajoute :
- 1h pour se préparer le matin (voir un peu plus)
- 2h pour le soir pour faire les tâches ménagères (ménager, diner, ...)

Il reste déjà plus que 7h pour dormir, sinon il faut aussi travailler le WE. Qui tiendrait un rythme régulier comme ça ?
De mémoire, une étude avait conclu qu'au delà d'un certain nombre d'heures de travail par semaine la productivité s'effondrait.
5  0 
Avatar de Dhafer1
Membre habitué https://www.developpez.com
Le 12/12/2024 à 17:38
J'ai testé Google Colab avec Gemini, c'est très puissant pour coder et déboguer. Mais génère aussi de mauvaises solutions parfois.
3  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 05/03/2025 à 8:30
google, la boite qui a viré 12000 salariés en 2023 et veut recommencer depuis le début de cette années ? ca donne envie aux salariés de s'investir pour l'entreprise
Et quand bine même, je doute que bosser 60h de toute façon ce soit productif mentalement pour un ingénieur. Ca risque même d'avoir l'effet inverse.

Enfin l'ia, c'est que le début, c'est un marché très compétitifs et les clients ne sont pas fidèle donc y'a pas d'urgence a sortir un produit dans le mois.. Si dans 1ans google arrive a offrir un meilleur produit, les clients irons chez google.
C'est d'ailleurs une raison pour laquelle je n'ai jamais investie mon argent dans des compagnies aériennes, les clients sont pas fidèle.
Pour l'ia c'est la même chose, c'est les fabricants de puces qui sont gagnant (nvidia...) pas les vendeurs de modèles.
3  0 
Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 12/12/2024 à 23:31
Encore une nouvelle annonce d'un nouveau produit révolutionnaire.

La com' qui cache le manque d'innovation d'une techno qui est vendue comme révolutionnaire, ça va finir par se voir. Non ?
1  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 12/12/2024 à 15:36
ça n'augure rien de bon et ça va participer à faire d'internet un lieu ou plus personne ne parle ni n'échange...

Jaclyn Konzelmann, directrice de Google Labs, a décrit le projet comme un « changement de paradigme UX fondamentalement nouveau » qui pourrait transformer la manière dont les utilisateurs interagissent avec les sites web.
Je vois plutôt ça comme une nouvelle possibilité offerte aux bots de se faire passer pour des humains.

Théorie de l'internet mort.

Cette artificialisation des productions numériques s'explique en partie par le changement de modèle économique des plateformes. X et Tiktok rémunèrent désormais les créateurs au nombre de vues, sous certaines conditions (souscription à un compte Premium sur X etc.), ce qui encourage la production à la pelle de contenus engageants, leur partage automatisé et donc le recours à de l'IA. Selon une prépublication de chercheurs de l'université de Stanford et de Georgetown datant de mars 2024 (en attente de relecture par les pairs), l'algorithme de recommandation de Facebook amplifierait même la portée de contenus artificiels, en les faisant figurer dans le fil d'usagers qui ne sont pas abonnés aux faux comptes qui les partagent.
0  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 13/12/2024 à 9:16
Citation Envoyé par Mingolito Voir le message
Je ne sais pas si le nouvel outil de codage IA "Jules" sera utile, par contre je trouve que celui qui a mis en production sur ce forum le bot de troll complotiste "Jule34" a bien réussi son coup, ce bot très efficace arrive à énerver tous le monde contre lui en postant un ramassis de foutaises complotistes
Expérience scientifique pour un papier de recherches ? Bot Chinois ? Russe ?
Nous aussi on t'aime camarade.
0  0 
Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 26/02/2025 à 7:27
C'est dommage qu'il ne soit pas disponible pour Visual Studio, je ne vois pas l'interet d'utiliser VS Code ?
0  0 
Avatar de r0d
Expert éminent https://www.developpez.com
Le 26/02/2025 à 10:58
Citation Envoyé par jnspunk Voir le message
C'est dommage qu'il ne soit pas disponible pour Visual Studio, je ne vois pas l'interet d'utiliser VS Code ?
VS Code est l'IDE le plus utilisé (source).
Jetbrains est en train de rebattre les cartes mais ça va prendre un peu de temps.
0  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 27/02/2025 à 19:20
En général, Visual Studio est utilisé par les pros ou étudiant; et donc un tel public a déjà accès à la version pro de Gemini Code Assist.
Je ne dis pas que VS Code n'est pas aussi utilisé par les pros mais cela se destine à un public plus linux ou amateur. Je ne dis pas que le public linux est une bande d'amateurs mais un champ de clientèle allergique au payant même s'il y a des applis payantes ou des linux payant comme RHEL mais destinés à un public pro.

edit : donc Google ne va pas phagocyter son marché de Gemini Code Assist Enterprise en rendant disponible Gemini Code Assist pour Visual Studio, ça me paraît logique et je ne comprends pas le pouce vers le bas. S'il pouvait m'expliquer pourquoi, je suis tout ouïe.
1  1 
Avatar de Camille12
Nouveau Candidat au Club https://www.developpez.com
Le 25/03/2025 à 12:41
Gemini 2.0 marque un bond en avant impressionnant pour l'IA, avec des performances accrues et une vitesse remarquable. La multimodalité et les capacités agentiques ouvrent des perspectives passionnantes, notamment pour les développeurs. La concurrence avec OpenAI s'intensifie, et c'est une excellente nouvelle pour l'innovation. Vivement les retours des testeurs !
0  0