IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un ancien employé de Google déclare que la panique de l'entreprise face à l'IA ressemble à s'y méprendre au fiasco de Google+
Et que les projets d'IA ne sont pas motivés par les besoins des utilisateurs

Le , par Mathis Lucas

55PARTAGES

4  0 
Scott Jenson, qui a quitté Google le mois dernier après y avoir travaillé pendant 16 ans, a exprimé ses inquiétudes concernant les projets d'IA sur lesquels il avait travaillé avant son départ. Il a déclaré que les travaux de Google en matière d'IA sont motivés par "une panique glaciale" à l'idée d'être distancé et a comparé l'obsession de l'entreprise pour l'IA au lancement de Google+ en réaction à Facebook. Il estime que la vision de Google en matière d'IA manque d'une véritable motivation pour répondre aux besoins des utilisateurs. L'objectif de Google serait de construire une IA semblable à Jarvis (Iron Man) et l'entreprise aurait peur que quelqu'un d'autre le fasse avant lui.

Lancé fin novembre 2022, le chatbot d'IA ChatGPT a été perçu comme une menace pour le moteur de recherche hégémonique de Google et les dizaines de milliards de dollars qu'il génère par an. L'idée avait suffi à déclencher une grande panique chez Google et le PDG Sundar Pichai avait lancé le mois suivant une alerte rouge à ses équipes pour développer rapidement une réponse à ChatGPT. À peine deux mois plus tard, début février 2023, Google lançait Bard, sa réponse à ChatGPT. Cependant, Bard a connu des débuts difficiles, marqués par des erreurs ridicules, et sera rebaptisé Gemini au mois de février de cette année.

À en croire Scott Jenson, vétéran de Google qui a quitté de concepteur UX senior en mai, ces difficultés s'expliquent par le fait que "les travaux du géant de la recherche dans le domaine de l'IA ont été motivés par une panique glaciale". Selon le profil LinkedIn de Jenson, ce diplômé de Stanford a travaillé chez Google pendant environ 16 ans, au cours de trois périodes distinctes. Il a déclaré que Google a peur d'être distancé et pense que la solution est d'incorporer l'IA dans tout. Dans un billet sur LinkedIn, il a déclaré que ces projets n'étaient pas axés sur les besoins des utilisateurs, mais plutôt motivés par la peur d'être distancé.


Jenson compare l'obsession actuelle de Google pour l'IA à la réaction de l'entreprise face à Facebook il y a 13 ans, qui a abouti à l'échec de Google+. Lancé en 2011 pour rivaliser avec Facebook et Twitter, c'était la quatrième tentative de Google pour créer un réseau social. Mais la plateforme n'a pas réussi à convaincre les gens, même après que Google a forcé les choses en la poussant sur la communauté florissante de YouTube. Dès la fin de l'année 2011, les analystes rédigeaient déjà des nécrologies. Google y a cru pendant longtemps et n'a décidé de fermer le site qu'après avoir découvert une violation de données en 2018.

« Google+ était voué à l'échec dès le premier jour. Les problèmes liés à une interface utilisateur peu maniable et changeante, le fait d'être le dernier arrivé face à des géants comme Facebook, une expérience utilisateur décousue et des rumeurs de désaccords internes sur la manière dont Google+ devait être exploité ont tous affecté la plateforme », a déclaré Matt Navarra, consultant en médias sociaux, à la BBC. Ce fut un échec spectaculaire, comme Google en connaîtra de nombreux autres par la suite, notamment avec des expériences telles que Google Glass, Google Tango, Google Allo, Daydream, Google Lively, et bien plus encore.

Citation Envoyé par Scott Jenson

Les projets d’IA sur lesquels je travaillais étaient mal motivés et motivés par cette panique que tant qu’il y aurait de l'IA dedans, ce serait génial. Cette myopie n’est PAS quelque chose qui est motivé par un besoin de l’utilisateur. C’est une panique glaciale qu’ils soient laissés pour compte.

La vision est qu’il y aura un assistant Tony Stark comme Jarvis dans votre téléphone qui vous enferme dans leur écosystème si fort que vous ne le quitterez jamais. Cette vision est de l’herbe à chat pure. La crainte est qu’ils ne peuvent pas se permettre de laisser quelqu’un d’autre arriver en premier.

C’est exactement ce qui s’est passé il y a 13 ans avec Google+ (j’étais là aussi pour ce fiasco). C’était une réaction similaire, mais à Facebook.
Lors de sa première mission, qui s'est déroulée de 2005 à 2011, Jenson a géré l'interface utilisateur mobile de Google. Il a ensuite réintégré Google en 2013, où il a passé plus de huit ans à se concentrer sur la stratégie produit. La dernière et plus courte période de Jenson chez Google s'est déroulée d'avril 2022 à mars 2024, où il a fait des recherches sur les nouvelles utilisations de la technologie haptique pour Android. Sur LinkedIn, après que son billet critique est devenu viral, Jenson a édité son message pour préciser qu'il n’était pas "un cadre supérieur" chez Google et que les projets sur lesquels il travaillait étaient assez limités.

« Mon commentaire vient davantage d’une frustration générale de l’ensemble de l’industrie et de son approche de l’IA », a-t-il précisé. Mais son récit exprime un avis largement partagé dans la communauté et s'aligne sur les expériences d'autres anciens employés de Google, suggérant que Google donne la priorité au profit plutôt qu'à la qualité du produit, en particulier dans le cas de la recherche. Les efforts incessants de Google en matière d'IA ont entraîné une perte de confiance de la part des utilisateurs, des référenceurs, des annonceurs, des marques et des créateurs de contenu. Une situation qui commence à exaspérer les gens.

Dans son billet, Jenson mentionne également les tentatives similaires d'Apple qui visent à verrouiller les utilisateurs dans l'écosystème iOS en intégrant une IA dans son assistant Siri. Il prévient que les entreprises qui travaillent sur l'IA sans motivation ou vision claire risquent d'être dépassées par celles qui voient plus grand". « D’ailleurs, Apple n’est pas différent. Eux aussi essaient de créer ce verrouillage de l’IA avec Siri. Lorsque l'empereur n'aura plus de vêtements, ils seront dépassés par quelqu'un qui voit plus grand », a déclaré Jenson, qui a également travaillé pendant 8 ans chez Apple comme concepteur d'interface utilisateur.

Les critiques cinglantes de Jenson interviennent alors que les géants de la technologie tels que Google et Apple s'efforcent de rattraper les startups d'IA comme OpenAI. Et les poches profondes de Google et d'Apple, ainsi que leurs investissements antérieurs dans l'IA, ne leur ont pas vraiment permis de prendre une avance significative dans la course à l'IA. En fait, les responsables des logiciels d'Apple ont passé des semaines à tester eux-mêmes ChatGPT avant de se rendre compte qu'ils devaient mettre à jour leur assistant numérique Siri. En outre, selon Bloomberg, Apple serait sur le point de conclure un partenariat avec OpenAI.

L'accord devrait lui permettre d'intégrer ChatGPT dans la prochaine version d'iOS. Mais malgré son potentiel, l'IA n'est pas encore capable de tenir ses promesses. Google a révélé une tonne de projets d'IA lors de l'événement I/O 2024. Mais la plupart de ces projets sont encore au stade expérimental, ne sont accessibles qu'à quelques utilisateurs ou ne seront pas disponibles avant la fin de l'année. On ne sait pas encore quelle valeur ces projets apporteront aux utilisateurs ni s'ils seront utiles. Selon Google, des fonctionnalités telles que la reconnaissance de l'écriture manuscrite dans Gmail ou Google Docs sont déjà disponibles.

Toutefois, il n'est pas certain que les utilisateurs s'en servent ou les trouvent utiles. Vous vous souvenez peut-être de la voix artificielle "Duplex" de Google, qui a fait couler beaucoup d'encre et qui était censée automatiser tous les appels téléphoniques ennuyeux et les centres d'appels. C'était en 2018. Depuis, nous avons vu ce qu'il en est advenu. L'un des principaux exemples de la démarche agressive de Google est la fonction d'aperçu de l'IA, qui génère des résumés pour répondre directement aux requêtes de recherche avec des informations provenant de l'ensemble du Web. Avec tout cela, l'on peut faire le point suivant :

Les produits ne sont pas motivés par les besoins des utilisateurs

La critique de Jenson fait écho aux commentaires qui décrivent la conférence des développeurs Google I/O de cette année comme la plus ennuyeuse jamais organisée. Les critiques reprochent à Google de ne pas avoir précisé comment la nouvelle technologie d'IA de Gemini s'intégrerait dans ses produits existants et améliorerait l'expérience de l'utilisateur.

Google fait face à plusieurs controverses sur les aperçus de l'IA

La fonction de synthèse de l'IA de Google, qui génère des résumés pour répondre directement aux requêtes de recherche en ingérant des informations provenant de l'ensemble du Web, a donné lieu à des batailles juridiques. Les éditeurs accusent Google de violer les droits de propriété intellectuelle et de profiter injustement de leur contenu sans autorisation.

Il existe des tensions croissantes sur l'utilisation des données

La controverse entourant les aperçus d'IA crée des tensions entre les entreprises technologiques et les créateurs de contenu au sujet de l'utilisation des données en ligne pour l'entraînement de l'IA. Les éditeurs affirment que les résumés d'IA de Google pourraient siphonner le trafic des sites Web.

L'IA menace ainsi les sources de revenus des créateurs indépendants, qui dépendent des références de recherche. Le débat reflète la nécessité d'actualiser les cadres afin d'équilibrer l'innovation et la rémunération équitable des créateurs de contenu, et de maintenir un écosystème Internet ouvert et durable.

Source : billet de blogue

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des critiques de Scott Jenson à l'égard des projets d'IA de Google ?
L'accent mis par Google sur l'IA constitue-t-il une orientation potentiellement dangereuse ?
Que pensez-vous des récentes fonctionnalités d'IA intégrées par Google à son moteur de recherche ?
Rendent-elles le moteur de recherche plus utile ? Ou nuisent-elles à l'expérience traditionnelle de recherche ?
Que pensez-vous de la comparaison que fait Scott Jenson entre l'obsession de Google pour l'IA et l'échec de Google+ ?

Voir aussi

Google lance une alerte rouge à ses équipes pour le développement d'un concurrent à ChatGPT, l'IA qui menace son moteur de recherches, et les postes des développeurs informatiques humains

Les employés de Google critiquent le PDG Sundar Pichai pour l'annonce « précipitée et bâclée » de Bard, le concurrent de ChatGPT. Certains ne savaient même pas qu'il allait être présenté

Google annonce des améliorations de Gemini 1.5 Pro et un nouveau modèle 1.5 Flash, similaire au GPT-4o récemment dévoilé par OpenAI, conçu pour la vitesse et utile pour les conversations en temps réel

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/05/2024 à 12:43
Il y a bien longtemps que Google ne privilégie plus les intérêts de ses utilisateurs...

Cela s'est arrêté le jour où Google est devenu leader sur le marché du moteur de recherche...

C'est d'ailleurs le principe même de toutes les startup américaines: On commence par offrir des services gratuits ou vendus à perte... Puis lorsque le client est captif, on monte les prix!

Dernier exemple en date... Netflix! Par exemple, en Suisse, Netflix vient d'augmenter ses tarifs pour la 3ème fois en 3 ans!!!
3  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 17/07/2024 à 22:54
Comment pensez-vous que ces restrictions affecteront l’innovation dans le domaine de l’intelligence artificielle ? Est-ce que cela freinera ou encouragera de nouvelles avancées technologiques ?
Plus qu'un problème d'IA, on a affaire ici à un problème présent chez Google depuis deux décennies : Le mépris complet de Google pour la vie privée, droit pourtant fondamental dans le respect de la dignité humaine.
Un fichier hébergé sur Google Drive est la plupart du temps un fichier privé, on ne parle pas de fichiers publiés sur le web.

Cette situation est dans la droite ligné de ceci : https://grisebouille.net/google-lesp...-con-du-monde/

A ce niveau, Google Drive (même si c'est malheureusement loin d'être le seul) devrait être considéré comme un service piégé qui abuse de la confiance de victimes trop crédules. Le réglage qui ne fonctionne pas est carrément une stratégie digne des cybercriminel.
2  0 
Avatar de PierreMF
Futur Membre du Club https://www.developpez.com
Le 27/05/2024 à 11:04
Suite aux conférences développeurs de Google il y a 2 semaines, et Microsoft la semaine dernière, la différence entre les deux est bien perceptible sur l'IA. Google a fait beaucoup d'annonces surprenantes mais floues, quelques démos de prototypes inaccessibles... A part dans la keynote, Google a finalement très peu parlé d'IA dans les sessions techniques de Google I/O.
Microsoft a présenté des éléments plus concrets pour l'IA dans le cloud ou en local sur le PC, et des sessions techniques.
0  0 
Avatar de Pierre Louis Chevalier
Expert éminent sénior https://www.developpez.com
Le 27/05/2024 à 12:02
Oui enfin Microsoft ne fait qu'intégrer la solution d'OpenAI à tous ses logiciels c'est tout
0  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 17/07/2024 à 23:14
Ces risques pour la vie privée ouvrent la voie à d'autres préjudices, a déclaré Human Rights Watch. L'entraînement sur des photos d'enfants réels permet aux modèles d'IA de créer des clones convaincants de n'importe quel enfant, sur la base d'une poignée de photos ou même d'une seule image. Des acteurs malveillants ont utilisé des outils d'IA entraînés par LAION pour générer des images explicites d'enfants à partir de photos inoffensives, ainsi que des images explicites d'enfants survivants dont les images d'abus sexuels ont été introduites dans LAION-5B.
Par contre je comprend peut-être mal cette phrase, mais je ne voit pas en quoi le risque pour la vie privé décrit plus haut (la collecte abusive de certaines données) entraînerai d'autres risque par effet domino. En effet, rien n'interdit aux modèles de s’entraîner sur des photos d'enfant disponibles publiquement, le résultat sera exactement le même. A moins de demander aux modèles de ne plus collecter de photo d'enfant (donc de tronquer une part importante de la réalité, ce qui va à l'encontre la fonction première) ou de devenir bête en ne reproduisant plus que des images de manière littéral, sans rien mélanger. Hors il est évident que l'on se dirige vers l'inverse, à savoir une amélioration constante des modèles, ou il sera de plus en plus difficile de discerner les images d'origine.
On semble se diriger vers une nouvelle révolution de l'image, et donc probablement vers la faillite d'une grosse parti de la société consumériste (car la sacralisation des images et un des fondements du consumérisme), et les états/organisations vont devoir s'habituer.

Par contre, il devient très urgent de faire en sorte que n'importe qui souhaitant que son image ou l'image de son enfant ne serve pas pour entraîner des modèles, puisse avoir gain de cause.
0  0 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 26/07/2024 à 17:31
lol pour éviter les hallucinations, il faudrait que les poids soient : nombre de token / nombre total avec une clé de hache avec un nombre premier
0  0