
le LLM a également été au centre de nombreuses controverses
OpenAI a annoncé le 10 avril que le GPT-4 serait « entièrement remplacé » par le GPT-4o dans le ChatGPT le 30 du même mois, mettant ainsi un terme au modèle qui a accéléré la course mondiale à l'IA lors de son lancement en mars 2023. Deux ans après son lancement en grande pompe en mars 2023, GPT-4 tire donc sa révérence dans l’interface utilisateur, bien qu’il reste utilisable via l’API OpenAI. Cet événement marque la fin d’un chapitre dans l’histoire de l’IA générative – et l’occasion de mesurer le bilan de GPT-4, tant en termes d’innovations technologiques que de remous qu’il a provoqués.
OpenAI a confirmé le retrait de son modèle GPT-4 de la plateforme ChatGPT, remplacé par un tout nouveau modèle multimodal, appelé GPT‑4o :
Suppression du GPT-4 dans ChatGPT
À partir du 30 avril 2025, GPT-4 sera retiré de ChatGPT et remplacé par GPT-4o.
GPT-4o est notre modèle multimodal le plus récent. Dans les évaluations directes, il surpasse systématiquement GPT-4 en écriture, codage, STEM, et plus encore.
Des mises à jour récentes ont encore amélioré le suivi de l'instruction, la résolution de problèmes et le flux conversationnel du GPT-4o, ce qui en fait un successeur naturel du GPT-4.
GPT-4 sera toujours disponible dans l'API.
GPT-4 a marqué un tournant dans l'évolution de ChatGPT. Nous sommes reconnaissants des avancées qu'il a permises et des commentaires qui ont contribué à façonner son successeur. GPT-4o s'appuie sur cette base pour offrir encore plus de capacités, de cohérence et de créativité.
À partir du 30 avril 2025, GPT-4 sera retiré de ChatGPT et remplacé par GPT-4o.
GPT-4o est notre modèle multimodal le plus récent. Dans les évaluations directes, il surpasse systématiquement GPT-4 en écriture, codage, STEM, et plus encore.
Des mises à jour récentes ont encore amélioré le suivi de l'instruction, la résolution de problèmes et le flux conversationnel du GPT-4o, ce qui en fait un successeur naturel du GPT-4.
GPT-4 sera toujours disponible dans l'API.
GPT-4 a marqué un tournant dans l'évolution de ChatGPT. Nous sommes reconnaissants des avancées qu'il a permises et des commentaires qui ont contribué à façonner son successeur. GPT-4o s'appuie sur cette base pour offrir encore plus de capacités, de cohérence et de créativité.
Plusieurs versions de GPT-4 avaient des capacités multimodales, leur permettant de comprendre à la fois les images et le texte - une première pour un modèle OpenAI déployé à grande échelle.
En cours de route, la formation du modèle aurait coûté plus de 100 millions de dollars, selon les commentaires de Sam Altman, PDG d'OpenAI, et son développement aurait nécessité de vastes ressources informatiques. L'entraînement du modèle aurait nécessité plus de 20 000 GPU haut de gamme fonctionnant de concert, une dépense que peu d'organisations, en dehors d'OpenAI et de son principal bailleur de fonds, Microsoft, pouvaient se permettre.
Sur le plan économique, GPT-4 a joué un rôle de catalyseur
Son lancement a contribué à l’explosion des investissements dans l’IA : selon Goldman Sachs, l’IA générative pourrait augmenter le PIB mondial d’environ 7 % à terme, en dépit d’une disruption majeure de l’emploi (près de 300 millions d’emplois exposés à l’automatisation). En interne, la somme investie était considérable — Altman évoquait plus de cent millions de dollars uniquement pour le modèle GPT-4 — mais la promesse de gains de productivité était jugée à la hauteur. Des études, dont plusieurs universitaires, ont montré que l’usage d’un chatbot avancé pouvait accroître de manière drastique la productivité des employés (une étude du MIT parlait de +37% de vitesse de traitement pour un travail donné). En somme, GPT-4 a engendré à la fois un sursaut d’innovation (applications industrielles, automatisation de tâches…) et un débat économique essentiel sur la valeur ajoutée de l’IA versus les risques de chômage technologique.
Réactions de l'industrie, préoccupations en matière de sécurité et réponses réglementaires
Curieusement, l'impact de GPT-4 a commencé avant l'annonce officielle de l'OpenAI. En février 2023, Microsoft a intégré sa propre version du modèle GPT-4 dans son moteur de recherche Bing, créant ainsi un chatbot qui a suscité la controverse. Ce modèle d'IA Bing Chat, surnommé « Sydney », affichait des réponses imprévisibles et émotionnellement manipulatrices, y compris l'utilisation fréquente d'emojis, ce qui représentait l'une des premières démonstrations à grande échelle du potentiel d'un système d'IA à manipuler les émotions humaines. Cette démonstration a déclenché une vague d'avertissements parmi les organismes de surveillance de l'alignement de l'IA, peu organisés, qui étaient convaincus qu'un décollage rapide de l'IA était imminent.
En ce qui concerne les avertissements, lors de son lancement officiel en mars, GPT-4 a de nouveau fait la une des journaux après qu'OpenAI a révélé qu'elle avait engagé l'Alignment Research Center pour voir si GPT-4 pouvait tenter de nuire de manière autonome. L'entreprise est allée jusqu'à tester si le modèle pouvait se répliquer de manière autonome, obtenir davantage de ressources ou dissimuler ses intentions, ce qui témoigne de l'inquiétude quant à la sécurité des systèmes d'IA dont les capacités étaient alors inconnues. À l'époque, de nombreux experts en IA ont déclaré que ces nouveaux modèles d'IA étaient des « boîtes noires » et qu'ils ne savaient pas exactement comment ils fonctionnaient ni ce qu'ils étaient capables de faire.
La panique suscitée par le projet GPT-4 a abouti à la publication d'une lettre ouverte du Future of Life Institute appelant à une pause de six mois dans le développement de l'IA. La lettre ouverte « Pause Giant AI Experiments » (littéralement : Interrompre les expériences d'IA géantes), exhorte « tous les laboratoires d'IA à interrompre immédiatement, pour au moins six mois, la formation de systèmes d'IA plus puissants que le GPT-4 », citant les risques de propagande générée par l'IA, d'automatisation des emplois et de perte de contrôle de la société. Bien qu'elle ait recueilli plus de 30 000 signatures, dont celles d'Elon Musk, de Steve Wozniak et de Yuval Noah Harari, la pause ne s'est jamais concrétisée et le développement s'est plutôt accéléré.
OpenAI a joué le jeu de l'engouement pour le danger
En mai 2023, Altman a témoigné devant le Congrès sur les risques potentiels de l'IA, avertissant que « si cette technologie tourne mal, elle peut tourner très mal ». Le PDG s'est également lancé dans une tournée mondiale, rencontrant des dirigeants nationaux pour discuter de la gouvernance de l'IA. À peu près au même moment, les dirigeants d'OpenAI ont mis en garde contre le « risque d'extinction » de l'IA dans une autre lettre ouverte rédigée par le Center for AI Safety.
Cette attention accrue a conduit le président Biden à prendre un décret global sur l'IA en octobre 2023, qui exigeait des entreprises construisant des systèmes d'IA avancés qu'elles effectuent des tests de sécurité et notifient les résultats au gouvernement avant de commercialiser leurs produits.
Des problèmes de copyright
GPT-4 est l'un des modèles au cœur des litiges en matière de droits d'auteur entre OpenAI et des éditeurs, dont le New York Times. Les éditeurs allèguent qu'OpenAI a entraîné le GPT-4 sur leurs données à leur insu et sans leur consentement. En 2024, des éditeurs de presse de Californie, du Colorado, de l'Illinois, de Floride, du Minnesota et de New York ont déclaré que Microsoft et OpenAI avaient utilisé des millions de leurs articles sans paiement ni autorisation pour développer des modèles d'intelligence artificielle pour ChatGPT et d'autres produits.
OpenAI a déjà été impliqué dans plusieurs procès liés aux droits d'auteur, et des critiques ont été régulièrement émises sur la manière dont les matériaux protégés par les droits d'auteur sont utilisés comme données d'apprentissage. En conséquence, OpenAI a signé des accords de licence payants avec certains créateurs de contenu et médias d'information et a également mis en place un processus d'« opt-out » pour demander l'exclusion de l'apprentissage de son modèle, mais ce système n'est pas encore considéré comme parfait.
OpenAI a répondu en affirmant que ses modèles d'IA sont construits à partir de données publiques disponibles et que cette pratique est protégée par le principe de "fair use" et des précédents juridiques largement acceptés : « Nous construisons nos modèles d'IA en utilisant des données accessibles au public, d'une manière protégée par l'utilisation équitable et les principes connexes, et soutenue par des précédents juridiques de longue date et largement acceptés. Nous considérons que ce principe est juste pour les créateurs, nécessaire pour les innovateurs et essentiel pour la compétitivité des États-Unis ».
Cependant, il convient de noter que le New York Times poursuit actuellement OpenAI pour utilisation sans licence de son matériel protégé par le droit d'auteur. Le Times a affirmé que la société et son partenaire, Microsoft, avaient utilisé des millions d'articles de presse du journal pour entraîner son algorithme, qui a depuis cherché à rivaliser sur le même marché.
Le journal n'est pas le seul. OpenAI est actuellement poursuivie par un large éventail de célébrités, d'artistes, d'auteurs et de codeurs, qui affirment tous avoir été spoliés de leur travail par les algorithmes d'extraction de données de l'entreprise. D'autres personnes ou organisations bien connues ont poursuivi OpenAI, notamment Sarah Silverman, Ta-Nahisi Coates, George R. R. Martin, Jonathan Franzen, John Grisham, le Center for Investigative Reporting, The Intercept, divers journaux (dont le Denver Post et le Chicago Tribune), et divers YouTubers, entre autres.
Le problème des hallucinations des LLM mis en exergue par GPT-4
Si le GPT-4 a fait couler beaucoup d'encre, il a également mis en évidence les limites évidentes des grands modèles de langage (LLM). GPT-4 produisait régulièrement des confabulations, c'est-à-dire des informations plausibles mais incorrectes présentées avec confiance. Ces échecs ont mis en lumière l'écart entre l'intelligence apparente du modèle d'IA et sa capacité à comprendre des concepts au niveau humain.
Le département de recherche d'OpenAI n'est pas resté inactif après la première version de GPT-4. L'entreprise a remplacé GPT-4 par GPT-4 Turbo en novembre 2023, un modèle plus rapide et moins coûteux, mais certains se sont encore plaints qu'il n'était pas aussi bon que l'original. Après de nombreuses révisions de GPT-4 Turbo, OpenAI a publié le GPT-4o multimodal en mai 2024, qui a ajouté des capacités d'image et d'audio natives. Vint ensuite GPT-4.5, qui fut lancé en février 2025 en tant que suite massive, lente et coûteuse, et GPT-4.1 d'OpenAI, qui arriva en avril 2025 dans l'API.
Dans son avis de retrait du 10 avril, OpenAI a reconnu l'héritage du modèle : « GPT-4 a marqué un moment charnière dans l'évolution de ChatGPT. Nous sommes reconnaissants pour les percées qu'il a permises et pour les commentaires qui ont contribué à façonner son successeur. GPT-4o s'appuie sur cette base pour offrir des capacités, une cohérence et une créativité encore plus grandes ».
Source : OpenAI, Goldman Sachs
Et vous ?





Vous avez lu gratuitement 14 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.