« Nous avons appris que la version bêta de la navigation de ChatGPT peut afficher occasionnellement du contenu d’une manière que nous ne souhaitons pas, par exemple si un utilisateur demande spécifiquement le texte intégral d’une URL, [le chatbot] peut répondre à cette demande par inadvertance », écrit OpenAI, qui a momentanément coupé la fonctionnalité.
Ce comportement a été rapporté par un professeur de l’université de Princeton : on pouvait esquiver certains paywalls avec ChatGPT, en lui demandant de sortir une version imprimable du texte. Dans le cas de The Atlantic, l’article est d’abord transmis dans son intégralité, puis le paywall appliqué côté client. C’est cet état de choses qui a permis à ChatGPT de lire des articles de The Atlantic via Bing en s’appuyant sur le cache de la page web stockée par le moteur de recherches de Microsoft. C’est cette possibilité qu’OpenAI va désactiver. La décision est sujette à controverse, car prise sur la base de ce que ChatGPT a servi à des acteurs malveillants. Pourtant, la même fonctionnalité peut s’avérer utile à des intervenants de la filière de la cybersécurité.
La décision d’OpenAI n’est pas sans faire penser à celle de Youtube en lien avec les chaînes de cybersécurité à caractère éducatif. YouTube a mis à jour sa politique relative aux contenus dangereux ou nuisibles en 2019. Il est depuis lors demandé aux utilisateurs de ne pas publier de contenu sur YouTube s'il correspond à l'une des descriptions ci-dessous :
- Défis extrêmement dangereux : défis qui présentent un risque imminent de blessure physique.
- Canulars dangereux ou menaçants : canulars qui font croire aux victimes qu'elles courent un danger physique grave et imminent, ou qui créent une grave détresse émotionnelle chez les mineurs.
- Instructions pour tuer ou blesser : contenu qui montre aux spectateurs comment procéder pour tuer ou mutiler d'autres personnes, en donnant par exemple des instructions sur la fabrication d'une bombe destinée à blesser ou à tuer des êtres humains.
- Consommation ou fabrication de drogues dures : contenu montrant une consommation abusive de substances réglementées, telles que la cocaïne ou les opiacés, ou indiquant comment procéder pour fabriquer des drogues. Les drogues dures sont définies comme des drogues qui peuvent (pour la plupart) conduire à une dépendance physique.
- Troubles alimentaires : contenu dans lequel des personnes souffrant d'anorexie ou d'autres troubles alimentaires sont louées pour leur perte de poids, s'en vantent elles-mêmes ou encouragent les autres à imiter leur comportement.
- Événements violents : contenu faisant la promotion ou l'apologie de tragédies violentes, telles qu'une fusillade dans une école.
- Instructions pour voler : contenu qui montre aux utilisateurs comment voler de l'argent ou des biens matériels.
- Instructions pour pirater et hameçonner : contenu qui montre aux utilisateurs comment contourner les systèmes de sécurité informatiques ou voler les identifiants et les données personnelles d'un utilisateur.
- Promotion de remèdes dangereux : contenu affirmant que des substances ou des traitements dangereux peuvent avoir des bienfaits pour la santé.
C’est la version avancée de ChatGPT payante à 20 dollars par mois qui est pointée du doigt dans ces développements. Avec elle, on a accès au modèle de langage GPT le plus avancé d’OpenAI, l’accès aux plug-ins (en bêta) et à la navigation en ligne (en bêta également). Ces fonctionnalités spéciales avaient été annoncées plus tôt cette année.
Source : OpenAI
Et vous ?
Doit-on restreindre les fonctionnalités d’un outil au motif de ce qu’il peut servir à des acteurs malveillants ? Les mêmes fonctionnalités ne peuvent-elles pas être utilisées à des fins nobles ?
Voir aussi :
Le chatbot Bing de Microsoft, alimenté par l'IA, est désormais disponible sans liste d'attente. En le rendant exclusif à Edge, Microsoft encourage également l'utilisation de son propre navigateur
Microsoft annonce GPT-4, le modèle de langage, de type transformeur génératif pré-entraîné et assure qu'elle n'utilise pas les données de ses clients pour former ses modèles, il sera multimodal
Microsoft confirme que le nouveau Bing fonctionne avec le modèle de langage GPT-4 et indique que le moteur de recherche bénéficiera de toutes les améliorations apportées par OpenAI sur son modèle
Microsoft prétend que GPT-4 montre des « étincelles » d'intelligence artificielle générale « nous pensons que l'intelligence de GPT-4 signale un véritable changement de paradigme »