IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Apple et l'IA : Tim Cook admet ne pas être sûr à 100 % de pouvoir éliminer les hallucinations de l'IA,
Ce qui met en lumière l'importance d'une utilisation prudente et critique de ces technologies

Le , par Bruno

28PARTAGES

4  0 
Tim Cook, le PDG d'Apple, a exprimé des réserves quant à la capacité de l'entreprise à éliminer complètement les hallucinations de l'IA dans son nouveau système Apple Intelligence. Lors d'une interview, Cook a admis qu'il ne garantirait jamais à 100 % l'absence d'informations erronées générées par l'IA. Bien qu'Apple ait mis en place toutes les mesures possibles pour assurer la qualité de la technologie, Cook reconnaît qu'il existe toujours une marge d'erreur. Les hallucinations de l'IA se produisent lorsqu'un modèle d'IA génère des informations fausses, trompeuses ou illogiques, mais les présente comme des faits. Ces erreurs sont parfois difficiles à repérer, car la grammaire et la structure des phrases générées par l'IA semblent souvent convaincantes et sûres d'elles, malgré les inexactitudes qu'elles contiennent.

Les hallucinations résultent des grands modèles de langage (LLM) utilisés par les outils d'IA générative et les chatbots comme ChatGPT. Bien que les LLM soient conçus pour produire des textes fluides et cohérents, ils ne comprennent pas la réalité qu'ils décrivent. Leur fonction principale est de prédire le mot suivant en se basant sur la probabilité, et non sur la précision. Apple a récemment présenté son système Apple Intelligence lors de la Worldwide Developers Conference, lequel inclura des fonctionnalités d'IA sur l'iPhone, l'iPad et le Mac, telles que la génération de réponses aux emails et la création d'emojis personnalisés. Cependant, comme pour toute IA, des erreurs peuvent survenir, illustrées par des incidents récents impliquant Google et ChatGPT.


Dans une interview, Cook a souligné qu'il ne prétendrait jamais que le nouveau système Apple Intelligence serait exempt d'erreurs à 100 %. Il a déclaré : « Je pense que nous avons fait tout ce que nous savions faire, y compris une réflexion approfondie sur l'état de préparation de la technologie dans les domaines dans lesquels nous l'utilisons. Je suis donc persuadé qu'elle sera de très bonne qualité. Mais en toute honnêteté, je dirais que ce n'est pas encore 100 %. Je ne prétendrai jamais que c'est le cas. »

Apple intensifie discrètement ses efforts en IA

Apple renforce discrètement ses capacités en intelligence artificielle grâce à des acquisitions, des embauches et des mises à jour matérielles. Récemment, l'entreprise a introduit des outils d'apprentissage automatique gratuits, marquant un changement dans son approche traditionnellement conservatrice de l'IA. L'équipe de recherche a publié le framework MLX et la bibliothèque de modèles MLX Data, conçus pour fonctionner efficacement sur les puces Apple Silicon. Inspirés par des frameworks comme PyTorch et Jax, ces outils, accessibles via GitHub et PyPI, permettent d'entraîner des modèles d'IA avancés tout en étant faciles à utiliser.

L'intégration de MLX sur Apple Silicon, désormais présente dans tous les produits Apple, permet d'exploiter la GPU, la CPU et le moteur neuronal pour exécuter des modèles de machine learning directement sur l'appareil, offrant ainsi des performances optimales et une meilleure protection de la vie privée. Cette initiative vise à démocratiser l'apprentissage automatique en fournissant des outils puissants aux chercheurs.

Apple, qui évite toujours d'utiliser le terme "IA" dans ses présentations, semble se concentrer sur des modèles fondamentaux pour ses services plutôt que sur l'IA générative. Cette approche pourrait refléter une volonté de se démarquer des connotations alarmistes associées à l'IA ou une hésitation à s'engager pleinement dans ce domaine.

Depuis 2017, Apple a acquis 21 startups spécialisées dans l'IA, se concentrant sur les défis liés à l'IA sur les appareils mobiles, notamment les iPhones. Apple cherche à exploiter l'IA générative directement sur ses appareils, permettant aux chatbots et aux applications d'IA de fonctionner localement sans dépendre des services en nuage. Pour cela, elle travaille sur la réduction de la taille des grands modèles de langage et sur le développement de processeurs plus performants.

D'après une note de recherche de Morgan Stanley, près de la moitié des offres d'emploi d'Apple en IA incluent désormais le terme Deep Learning, qui fait référence aux algorithmes utilisés pour l'IA générative capable de produire du texte, de l'audio et du code de manière humaine. En 2018, Apple a embauché John Giannandrea, le principal responsable de l'IA de Google. Alors que l'attention mondiale se porte sur les géants de l'IA basés sur le cloud comme ChatGPT et PaLM, Apple pourrait préparer une révolution plus discrète avec des modèles de langage puissants fonctionnant directement sur les iPhones et iPads.

Morgan Stanley estime que les services d'Apple pourraient bénéficier de l'intégration de l'IA dans les iPhones, augmentant les dépenses de services par utilisateur grâce à de nouveaux paiements pour l'acquisition de trafic, une meilleure rétention des services, une accélération des achats sur l'App Store et un éventuel abonnement premium à Siri. Cependant, les ventes de matériel devraient également bénéficier le plus de cette transition vers l'IA.

Depuis le lancement de l'iPhone 12 5G en octobre 2020, Morgan Stanley note que les cycles de remplacement de l'iPhone se sont allongés de près de 12 mois, atteignant un record de 4,5 ans. Cela est dû à une stabilisation de la courbe d'innovation, à l'amélioration de la qualité des appareils et à des vents contraires aux dépenses en biens de consommation.

Tim Cook reconnaît les risques de désinformation par l'IA d'Apple

Tim Cook fait preuve d’une transparence salutaire en reconnaissant les limitations des technologies d’intelligence artificielle actuelles. Admettre que le nouveau système Apple Intelligence ne peut garantir à 100 % l’absence d’erreurs ou d’hallucinations est un message honnête et réaliste qui devrait rassurer les utilisateurs sur l’intégrité d’Apple. Cependant, cela soulève plusieurs points de réflexion critique.

Cette reconnaissance des limites de l'IA met en lumière l'importance d'une utilisation prudente et critique de ces technologies. Les hallucinations de l'IA, où des informations fausses sont présentées comme factuelles, peuvent avoir des conséquences graves si elles ne sont pas correctement identifiées. Une confiance excessive dans des réponses générées par des modèles d’IA, même celles provenant d'entreprises prestigieuses comme Apple, pourrait conduire à la désinformation ou à des erreurs de jugement.

L'approche de Cook illustre également un défi fondamental dans le développement de l'IA : l'équilibre entre innovation rapide et fiabilité. Alors que les grandes entreprises technologiques se précipitent pour intégrer des fonctionnalités d'IA avancées dans leurs produits, il est crucial de ne pas sacrifier la précision et la véracité des informations générées. Les utilisateurs doivent être conscients des limites actuelles et rester vigilants quant à la vérification des informations fournies par ces systèmes.


Le commentaire de Cook incite aussi à réfléchir sur la responsabilité des entreprises en matière d'IA. Si l'IA ne peut pas être fiable à 100 %, quelles mesures supplémentaires peuvent être mises en place pour minimiser les risques ? Cela pourrait inclure des mécanismes robustes de vérification humaine, des systèmes de retour d'information pour corriger les erreurs, et une transparence accrue sur les processus de prise de décision de l'IA.

Enfin, la déclaration de Cook ouvre la voie à une discussion plus large sur la nécessité de réguler et de standardiser les pratiques de développement et de déploiement de l'IA. Les régulateurs et les développeurs doivent travailler ensemble pour établir des normes qui garantissent non seulement l'innovation technologique, mais aussi la sécurité et la fiabilité des informations générées par l'IA. Il est essentiel de rappeler que la reconnaissance des limites de l'IA par les leaders du secteur doit être accompagnée d'efforts continus pour améliorer la fiabilité et la transparence de ces technologies. Les utilisateurs doivent être éduqués sur les capacités et les limites de l'IA, et des garde-fous doivent être mis en place pour prévenir les conséquences potentielles des erreurs de l'IA.

Source : Apple CEO Tim Cook in an interview

Et vous ?

Tim Cook reconnaît que l'IA d'Apple n'est pas exempte d'erreurs. Peut-on faire confiance à cette IA ?

Quelles autres mesures peuvent être prises pour réduire les risques, étant donné que l'IA ne peut garantir une fiabilité totale ?

Voir aussi :

Apple vient de lancer discrètement une série de nouveaux outils d'apprentissage automatique, une révolution silencieuse ou un coup de marketing ?

Apple, sous le feu des critiques pour ses prix élevés et des accusations de pratiques monopolistiques, projette de lancer l'iPhone AI en 2024, selon les prévisions de Morgan Stanley

Apple lance MGIE, un modèle de retouche d'images basé sur l'IA, cherchant à rattraper son retard dans un secteur où ses efforts compromettent la confidentialité, valeur clé de sa culture d'entreprise

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Fluxgraveon
Membre actif https://www.developpez.com
Le 14/06/2024 à 15:26
Tim Cook, le PDG d'Apple, a exprimé des réserves quant à la capacité de l'entreprise à éliminer complètement les hallucinations de l'IA dans son nouveau système Apple Intelligence.
Pour les humains, la prise en charge (symptomatique) est basée sur l'utilisation de neuroleptiques.
Pour l'IA, voir peut-être du côté des leptons ?
1  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 14/06/2024 à 16:03
Tim Cook n'est pas sûr et le 100% des vrais chercheurs en IA savent qu'il n'est pas possible de supprimer les hallucinations des IA.

Pour la bonne raison que depuis le début de l'IA, personne n'a été capable d'expliquer le pourquoi des hallucinations et cela pour une raison simple, une vraie IA est un système neuronal qui apprend par lui-même sans que l'on sache vraiment par quel moyen il apprend: Par exemple, on enseigne à une IA à reconnaitre des oranges sur une photo. Sur quelle base est-ce que l'IA en question va conclure qu'il s'agit d'une orange? Parce qu'elle y voit une boule de couleur orange? Parce qu'elle prend en compte une série de pixels sur la photo qui étant de couleur orange permet de conclure à la présence du fruit? Etc, etc, etc...

Au final, supprimer les hallucinations des IA revient à pouvoir répondre à la question "Qui est le premier de l'oeuf ou de la poule?"

Mais bon dire la vérité n'est pas la caractéristique première d'un commerçant, tel le vendeur de poisson faisandé, Tim Cook crie à l'envie " Il est frais mon poisson... Il est frais!"
1  0 
Avatar de Fluxgraveon
Membre actif https://www.developpez.com
Le 14/06/2024 à 15:37
J'ajoute :
sur le plan nootique, (comprenez au carrefour de la noétique et des fonctions cérébrales), il peut-être intéressant d'utiliser "l'hyperart Thomasson" (à titre indicatif, cela est émis par Ijin, prosôpon ).
Cette affaire d'hallucinations n'a rien d'étonnant, s'agissant d'une création humaine (cf. l'expérience "Norman" du M.I.T, merci)
1  1