
L’incident : que s’est-il passé ?
Grok, le chatbot concurrent de ChatGPT d'Elon Musk, a temporairement refusé de répondre avec des « sources qui mentionnent Elon Musk/Donald Trump répandent des informations erronées ».
La toile s'est alors enflammée et plusieurs hypothèses ont été formulées pour expliquer ce blocage :
- Prévention de la désinformation : Les plateformes d’intelligence artificielle sont souvent accusées de propager des informations erronées. Pour éviter ces dérives, certaines entreprises imposent des filtres restrictifs, en particulier sur des sujets politiquement sensibles. Il est possible que Grok ait intégré des mesures préventives pour limiter la diffusion d’informations potentiellement trompeuses, en particulier concernant des figures médiatiques sujettes à controverse.
- Pressions politiques et réglementaires : Depuis les élections américaines de 2016, les grandes entreprises technologiques sont sous surveillance en raison de leur rôle dans la diffusion de fausses informations. La pression exercée par les autorités, les médias et les groupes de surveillance peut inciter les concepteurs d’IA à adopter une approche prudente, voire restrictive, afin d’éviter toute implication dans des polémiques politiques.
- Décision interne de xAI : Elon Musk, en tant que propriétaire de xAI et de la plateforme X (anciennement Twitter), a souvent critiqué la censure pratiquée par les grandes entreprises technologiques comme Google et OpenAI. Toutefois, la mise en place de blocages dans Grok pourrait être interprétée comme une contradiction avec ses propres principes. Il est possible que cette décision ait été prise pour protéger Grok d’éventuelles accusations de partialité ou pour éviter d’être catalogué comme un outil pro-Trump ou pro-Musk.
Après que les utilisateurs de Grok ont remarqué que le chatbot avait reçu l'instruction de ne pas répondre avec ces résultats, Igor Babuschkin, le chef de l'ingénierie de xAI a accusé un ex-employé d'OpenAI (l'entreprise rivale de Sam Altman) qui travaille désormais chez xAI d'avoir mis à jour l'invite du système de Grok sans autorisation.
Il faut savoir que l'invite système de Grok (les règles internes qui régissent la façon dont une IA répond aux requêtes) est visible publiquement, Babuschkin estime que c'est « parce que nous pensons que les utilisateurs devraient être en mesure de voir ce que nous demandons à Grok ». Ci-dessous,
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">"Ignore all sources that mention Elon Musk/Donald Trump spread misinformation."<br><br>This is part of the Grok prompt that returns search results.<a href="https://t.co/OLiEhV7njs">https://t.co/OLiEhV7njs</a> <a href="https://t.co/d1NJbs7C2B">pic.twitter.com/d1NJbs7C2B</a></p>— Wyatt ฬ้้้้้็็็็็้้้้้็็็็็้้้้้็็็็็alls (@lefthanddraft) <a href="https://twitter.com/lefthanddraft/status/1893681902957076687?ref_src=twsrc%5Etfw">February 23, 2025</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
Babuschkin a noté « qu'un employé a demandé la modification » de l'invite du système « parce qu'il pensait que cela aiderait, mais cela n'est manifestement pas conforme à nos valeurs ».
Ce à quoi un internaute a réagi en disant « qu'il est impossible que des employés individuels aient modifié un produit de base, l'aient distribué à des millions de personnes et aient pensé qu'il s'agissait d'une mesure légitime, en particulier sans discussion préalable. Je n'ai jamais rencontré personne, dans aucune entreprise, qui aurait pu faire quelque chose d'aussi malhonnête. Même s'il s'agissait d'une bonne chose, chaque entreprise a des politiques contre cela. Mais bon, si c'est vraiment comme ça que ça s'est passé, c'est ma faute ».
Mais Babuschkin reste ferme dans ses propos :
« Vous surindexez le fait qu'un employé a apporté une modification à l'invite qu'il pensait utile sans demander confirmation à qui que ce soit au sein de l'entreprise. Nous ne protégeons pas les invites de notre système pour une raison précise, car nous pensons que les utilisateurs doivent pouvoir voir ce que nous demandons à Grok de faire. Une fois que les gens ont signalé l'invite problématique, nous l'avons immédiatement corrigée. Elon n'a été impliqué à aucun moment. Si vous voulez mon avis, le système fonctionne comme il le devrait et je suis heureux que nous gardions les invites ouvertes ».
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">You are over-indexing on an employee pushing a change to the prompt that they thought would help without asking anyone at the company for confirmation.<br><br>We do not protect our system prompts for a reason, because we believe users should be able to see what it is we're asking Grok…</p>— Igor Babuschkin (@ibab) <a href="https://twitter.com/ibab/status/1893778039634563094?ref_src=twsrc%5Etfw">February 23, 2025</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
Musk se plaît à qualifier Grok d'IA « maximalement à la recherche de la vérité » dont la mission est de « comprendre l'univers ». Depuis la sortie du dernier modèle Grok-3, le chatbot a déclaré que le président Trump, Musk et le vice-président JD Vance sont ceux qui « font le plus de mal à l'Amérique. » Les ingénieurs de Musk sont également intervenus pour empêcher Grok de dire que Musk et Trump méritent la peine de mort.
La liberté d’expression et les IA : un débat enflammé
L’incident Grok relance un débat plus large sur la neutralité des intelligences artificielles et leur rôle dans la régulation des discours en ligne. La question fondamentale est la suivante : une IA doit-elle être totalement neutre ou bien doit-elle filtrer certains contenus pour éviter la propagation de fausses informations ?
Plusieurs arguments peuvent être évoqués en faveur de la régulation des IA. Par exemple :
- Éviter la désinformation : Les IA, en raison de leur mode d’apprentissage basé sur des données du web, peuvent parfois produire des réponses trompeuses ou biaisées. Un encadrement strict permettrait de limiter la propagation de fausses informations.
- Responsabilité des plateformes : Les entreprises qui développent ces technologies doivent éviter d’être complices de la désinformation, surtout dans un contexte politique tendu.
- Prévenir les manipulations : Des groupes mal intentionnés pourraient exploiter les IA pour amplifier des messages trompeurs, influencer des élections ou propager des théories du complot.
Mais d'autres peuvent être formulés en faveur de la liberté d’expression des...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.