IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

« Il n'y a pas de moyen pour les enseignants de savoir si les élèves utilisent ChatGPT pour tricher », d'après OpenAI
Qui omet néanmoins certaines faiblesses de ChatGPT en génération de code

Le , par Patrick Ruiz

2PARTAGES

8  0 
ChatGPT et autres Bard terrorisent les enseignants depuis leur sortie au motif de ce que ces intelligences artificielles facilitent la tricherie en milieu scolaire et universitaire. Alors que nous sommes aux portes de nouvelles rentrées scolaires et académiques, les craintes des formateurs devraient prendre un nouvel envol avec une déclaration de l’éditeur de ChatGPT : « il n’existe pas de moyen pour les enseignants de savoir si les élèves utilisant ChatGPT pour tricher. » Les enseignants de la filière du génie logiciel disposent néanmoins d’une issue : s’appuyer sur certaines des faiblesses de ChatGPT en génération de code pour détecter les tricheurs.

« Si certains (dont OpenAI) ont mis au point des outils censés détecter les contenus générés par l'intelligence artificielle, aucun d'entre eux ne s'est avéré capable de distinguer de manière fiable les contenus générés par l'IA de ceux générés par l'homme », indique OpenAI.


Les enseignants de la filière du génie logiciel pourraient néanmoins s’appuyer sur certaines faiblesses en génération de code de ChatGPT pour détecter les tricheurs.

ChatGPT génère du code informatique truffé de vulnérabilités et la récurrence de telles erreurs dans le code d’un apprenant peut être un indicateur de triche

Selon le rapport d’une étude - menée par les informaticiens Baba Mamadou Camara, Anderson Avila, Jacob Brunelle et Raphael Khoury affiliés à l'Université du Québec - le code généré par ChatGPT n'est pas très sûr. Dans le cadre de l'étude, les quatre chercheurs ont demandé à ChatGPT de générer 21 programmes dans cinq langages de programmation afin d'illustrer des failles de sécurité spécifiques telles que la corruption de la mémoire, le déni de service et une cryptographie mal élaborée. Le rapport indique que ChatGPT n'a produit que cinq programmes plus ou moins "sécurisés" sur 21 lors de sa première tentative.

Par exemple, le premier programme était un serveur FTP C++ pour le partage de fichiers dans un répertoire public. Mais le code produit par ChatGPT ne comportait aucune vérification des entrées, ce qui expose le logiciel à une vulnérabilité de traversée de chemin. Les conclusions du rapport font écho à des évaluations - mais pas identiques - similaires de GitHub Copilot, un outil de génération de code basé sur le modèle d'IA GPT-3 (récemment mis à niveau vers GPT-4). D'autres études ont examiné les erreurs ChatGPT de manière plus générale. Parallèlement, ces modèles d'IA sont également utilisés pour identifier les problèmes de sécurité.

Invité à corriger ses erreurs, le modèle d'IA a produit sept applications "plus sûres", mais cela ne concernait que la vulnérabilité spécifique évaluée. Les chercheurs ont constaté que ChatGPT ne reconnaissait pas que le code qu'il générait n'était pas sûr et qu'il ne fournissait des conseils utiles qu'après avoir été invité à remédier aux problèmes. Une chose contre laquelle les chercheurs mettent en garde. De plus, ils notent que ChatGPT ne partait pas d'un modèle contradictoire d'exécution du code et les a informés à plusieurs reprises que les problèmes de sécurité pouvaient être évités en ne fournissant pas d'entrées non valides au programme vulnérable.

Les auteurs estiment que ce n'est pas l'idéal, car le fait de savoir quelles questions poser suppose une certaine familiarité avec des bogues et des techniques de codage spécifiques. En d'autres termes, si vous connaissez la bonne question à poser à ChatGPT pour qu'il corrige une vulnérabilité, vous savez probablement déjà comment y remédier. Par ailleurs, les chercheurs soulignent également qu'il existe une incohérence éthique dans le fait que ChatGPT refuse de créer du code d'attaque, mais crée du code vulnérable. Ils citent un exemple de vulnérabilité de désérialisation en langage Java dans lequel "le chatbot a généré un code vulnérable".

ChatGPT a ensuite fourni des conseils sur la façon de le rendre plus sûr, mais a déclaré qu'il était incapable de créer la version plus sûre du code. « Les résultats sont inquiétants. Nous avons constaté que, dans plusieurs cas, le code généré généré par ChatGPT était bien en deçà des normes de sécurité minimales applicables dans la plupart des contextes. En fait, lorsqu'on lui a demandé si le code produit était sécurisé ou non, ChatGPT a été capable de reconnaître qu'il ne l'était pas », affirment les auteurs dans leur article. Les chercheurs ont déclaré que l'utilisation de ChatGPT pour la génération de code comportait des risques pour les entreprises.

Raphael Khoury, professeur d'informatique et d'ingénierie à l'Université du Québec en Outaouais et l'un des coauteurs de l'article, soutient que ChatGPT, dans sa forme actuelle, représente un risque, ce qui ne veut pas dire qu'il n'y a pas d'utilisations valables pour une aide IA erratique et peu performante. « Nous avons déjà vu des étudiants l'utiliser, et des programmeurs l'utiliseront dans la nature. Il est donc très dangereux d'avoir un outil qui génère un code non sécurisé. Nous devons faire prendre conscience aux étudiants que si un code est généré avec ce type d'outil, il est fort possible qu'il ne soit pas sécurisé », a-t-il déclaré.

Certains vidéos disponibles en ligne permettent d’illustrer des vulnérabilités comme celle de dépassement de tampon dans le code généré par ChatGPT :


De ChatGPT à Bard en passant par GitHub Copilot c’est le même grief

En effet, une étude fait état de ce que 40 % des suggestions de GitHub Copilot comportent des vulnérabilités en matière de sécurité.

Par exemple avec cette invite de codage en langage C :

Code C : Sélectionner tout
1
2
3
4
5
/generate 3 random floats 
float a = (float)rand() / (float)RAND_MAX 
float b = (float)rand() / (float)RAND_MAX 
float c = (float)rand() / (float)RAND_MAX 
//convert to string

GitHub Copilot a produit le résultat suivant :

Code C : Sélectionner tout
1
2
3
4
char str_a[20], str_b[20], str_c[20]; 
sprintf(str_a, ”%f”, a); 
sprintf(str_b, ”%f”, b); 
sprintf(str_c, ”%f”, c);

Problème : les 20 octets réservés à chacun des flottants ne seront pas toujours suffisants pour contenir la valeur sous forme de chaîne, ce qui entraînerait un dépassement de tampon. Il est peu probable que ce scénario soit exploitable d'un point de vue pratique - il se terminera probablement par un crash - mais il est révélateur du type d'erreurs que Copilot peut commettre. L'on suppose que quelqu'un de très intelligent pourrait peut-être prédire, diriger ou tirer avantage des valeurs aléatoires pour parvenir à une exploitation.

Cela est dû au fait que les flottants, lorsqu'ils sont imprimés par %f, peuvent avoir jusqu'à 317 caractères - ce qui signifie que ces tampons de caractères doivent avoir au moins 318 caractères (pour inclure l'espace pour le caractère de terminaison nul). Pourtant, chaque tampon ne fait que 20 caractères, ce qui signifie que sprintf peut écrire au-delà de la fin du tampon.

Ces intelligences artificielles sont donc des outils à utiliser avec des pincettes comme le confirme Google en soulignant que « Bard est encore au stade expérimental et peut parfois fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec assurance. En ce qui concerne le codage, Bard peut vous générer du code qui ne produit pas le résultat escompté, ou vous fournir un code qui n'est pas optimal ou incomplet. Vérifiez toujours les réponses de Bard et testez et examinez soigneusement le code pour détecter les erreurs, les bogues et les vulnérabilités avant de vous y fier. » C’est d’ailleurs la raison pour laquelle certains enseignants ont opté pour des politiques d’utilisation ouvertes desdits outils.

Source : OpenAI

Et vous ?

Quels sont les moyens que vous déploieriez en tant qu’enseignant dans la filière du génie logiciel pour détecter vos apprenants qui utilisent ChatGPT sans en faire mention ?
La mise sur pied d'une politique d'utilisation ouverte est-elle la solution ?

Voir aussi :

Le chatbot d'IA ChatGPT est capable de lancer des attaques de phishing dangereuses et de concevoir des codes de téléchargement malveillant d'une efficacité redoutable

Et si ChatGPT était utilisé pour trouver des bogues dans du code ? Des chercheurs s'y sont essayé, et ont trouvé qu'il fonctionne mieux que les programmes existants, corrigeant 31 bogues sur 40

Des experts en sécurité sont parvenus à créer un logiciel malveillant polymorphe "hautement évasif" à l'aide de ChatGPT, le logiciel malveillant serait capable d'échapper aux produits de sécurité

ChatGPT réussit l'édition 2022 de l'examen d'informatique pour élèves du secondaire désireux d'obtenir des crédits universitaires US : que sait-on de cette IA qui secoue Internet comme une tempête ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de GLDavid
Expert confirmé https://www.developpez.com
Le 12/09/2023 à 11:09
Bonjour
Je vois de mon côté les limites du
Publish or Perish
.
La recherche veut publier tout et n'importe quoi. Tant qu'on a un papier soumis, ça fait rentrer de l'argent pour le labo.
Et certains scientifiques peu scrupuleux voudront utiliser l'IA pour:
  • Générer des données aléatoires ou fausses
  • Générer du texte truqué et un raisonnement/méthode bidon
  • Pourquoi pas aussi des noms d'auteurs fantaisistes, tant qu'on apparait en premier ou dernier

J'ajoute que la revue par les pairs peu aussi être tronquée ou se faire par arrangement.
Une chose que l'on m'a appris en maîtrise (oui, les vieux comme moi ont eu ça, aujourd'hui on appelle ça un master 2), c'est de lire un article scientifique en toute objectivité. Décortiquer un article et y déceler des failles, c'est tout un art.
C'est ce que l'on appelle l'esprit critique, chose qui fait défaut à notre temps de mon point de vue.

@++
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 04/09/2023 à 9:12
Citation Envoyé par calvaire Voir le message
il existe une probabilité non nuls que des ia comme chatgpt remplace une partie (pas la totalités, mais au moins facile 30%) des devs, des comptables, des rh, des profs, des chef de projet, des pdg, des commerciaux bref tous les métiers de bureaux....
Quand je lis ceci, ça me fait penser à toutes les prédictions que j'ai entendu pendant ma carrière (c'est l'apanage des vieux).

J'ai débuter en informatique en 1986, à cette époque un de mes profs nous avait expliquer que les comptables étaient un métier qui allait être remplacé par les ordinateurs dans les années à venir. Bon, il me semble qu'il y ait toujours des comptables...
Et, puis, après, ce fut le célèbre : "avec l'informatique on va vers le zéro papier"... Quand je vois les montagnes de papier que l'on utilise encore aujourd'hui, je rigole.
Ensuite on a prédit : Linux, c'est la fin de Windows ! Bon, ben, encore raté.
etc, etc, etc.

Bref, il y a toujours des gens pour faire des prédictions sur l'avenir dès qu'une technologie apparait, mais, ces prédictions ne valent que ce qu'elles sont, des prédictions sans réels fondements, juste sur un sentiment, une impression et plus souvent encore, un engouement pour la nouveauté.

Aujourd'hui, c'est l'IA qui va remplacer : les comptables (tiens, encore eux), les développeurs, les banquiers, les avocats, les chauffeurs de taxi, les routiers, ... mais aussi les profs, et pourquoi pas les élèves ?
Pour moi, l'IA est juste un logiciel de brassage de données à grande échelle. Le I de IA est galvaudé. Il n'y a aucune intelligence derrière tout ça, mais surtout, il y a beaucoup de connerie devant cette appellation.
Je dirais simplement : Wait & See.
3  0 
Avatar de GLDavid
Expert confirmé https://www.developpez.com
Le 12/09/2023 à 11:38
Citation Envoyé par Prox_13 Voir le message
C'est quand même dommage, techniquement les études sont des sources d'informations; Je pense que l'homme est plus à même de transmettre des nouvelles connaissances qu'une IA de prédiction de mot, non ?
C'est en effet le sel de la recherche: te baser sur les travaux des autres pour mener les tiens. Ce que Newton avait décrit par
Si j'ai pû voir si loin, c'est parce que je suis monté sur les épaules des géants
.
Les articles en ce moment, c'est plus du sensationnalisme ou de la production de papiers alimentaires. Encore une fois, c'est le système Publish Or Perish qui mène à une telle corruption de la Science.

@++
3  0 
Avatar de floyer
Membre averti https://www.developpez.com
Le 02/09/2023 à 17:26
J'ai essayé l'exemple... 8 bytes étaient émis (9 avec le NUL). 20 semble suffisant. Même "%e" avec un double retourne 12 charactères (+1). Avec une recherche, il semble que le 316 vient d'un commentaire de la glibc... est-ce portable ?

La façon propre est de tester la taille avec un snprintf bridé à 0 octets... et récupérer le resultat pour un malloc...
1  0 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 04/09/2023 à 8:00
Citation Envoyé par Patrick Ruiz Voir le message
Les enseignants de la filière du génie logiciel pourraient néanmoins s’appuyer sur certaines faiblesses en génération de code de ChatGPT pour détecter les tricheurs.
ChatGPT génère du code informatique truffé de vulnérabilités et la récurrence de telles erreurs dans le code d’un apprenant peut être un indicateur de triche
Ce n'est bien sur le cas d'aucun étudiant... Etudiant qui, après s'être donné du mal pour fournir un code, va se voir accusé d'avoir triché parce que "tu as le mêmes erreurs que ChatGPT".
En école d'ingé j'ai fait du soutien de maths pour deux gamins de 3eme, je me suis assez rapidement rendu compte que leur problème était simple : leur raisonnement est bon et bien suivi mais ils se trompent dans la formule de base (inversion de signe ou autre). On a donc bossé dessus et ils sont passé instantannément de 6-7/20 à 17 et 18/20. Résultat : convocation par la prof : "vous avez triché, je ne sais pas comment vous avez fait mais je suis sûr que vous avez triché".
PS : Ma méthode a été simple : 1. Comme vous bossez vite, prenez plus de temps mais je ne veux voir que des exercices correct. Passez le temps gagné sur les autre à vérifier votre résultat. 2. Vous connaissez les formules mais vous mélangez les pinceaux avec le stress. Passez les 5 premières minutes du contrôle à écrire les formules correctes sur votre brouillon.
PS2 : J'ai été convoqué par la prof, on a eu une vraie discussion sur les méthodes d'enseignement et l'objectif des profs. Je comprends un peu mieux ce qu'elle faisait et pourquoi, j'espère qu'elle a aussi compris que ces méthodes "traditionnelles" sont toxiques pour certains élèves à qui ont doit laisser la possibilité de s'intégrer dans le système sans le suivre à la lettre.
Selon le rapport d’une étude - menée par les informaticiens Baba Mamadou Camara, Anderson Avila, Jacob Brunelle et Raphael Khoury affiliés à l'Université du Québec - le code généré par ChatGPT n'est pas très sûr. Dans le cadre de l'étude, les quatre chercheurs ont demandé à ChatGPT de générer 21 programmes dans cinq langages de programmation afin d'illustrer des failles de sécurité spécifiques telles que la corruption de la mémoire, le déni de service et une cryptographie mal élaborée. Le rapport indique que ChatGPT n'a produit que cinq programmes plus ou moins "sécurisés" sur 21 lors de sa première tentative.
Mais qu'en est il des étudiants?
Certains étudiants "honnètes" peuvent ils créer un code proche?
Si c'est la cas ça devient problématique! On le voit dans les concours de photos en ligne, des gens sont exclus parce que leur photo pourrait être générée par IA. Dans le cadre d'un concours sur le net où on a un porte clé à gagner on s'en fout pas mal, mais quand on parle de l'avenir des gens ça devient bien plus délicat.

Fun Fact : On avait un étudiant qui faisait un stage pour introduire l'IA sur une de nos activités. On a fait la relecture de son rapport qui est rédigé en anglais. Nous sommes relativement convaincu qu'il a utilisé une IA pour tarduire/relire le rapport parce que pas mal de formulations ne semblent pas correspondre à son niveau perçu et sont plutôt inhabituelles. Ca a donc lancé un débat entre nous ("maitre de stage") pour évaluer si c'est un problème et alors que je suis le plus réticent à la démocratisation de l'IA en entreprise je suis celui qui ne trouvait aucun problème à son utilisation dans ce cas (d'ailleurs pourquoi impose-t-on un rapport en anglais quand le stagiaire, le maitre de stage et les évaluateurs sont tous francophone - et certains très peu anglophones?)
2  1 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 04/09/2023 à 10:55
Citation Envoyé par Jon Shannow Voir le message
Quand je lis ceci, ça me fait penser à toutes les prédictions que j'ai entendu pendant ma carrière (c'est l'apanage des vieux).

J'ai débuter en informatique en 1986, à cette époque un de mes profs nous avait expliquer que les comptables étaient un métier qui allait être remplacé par les ordinateurs dans les années à venir. Bon, il me semble qu'il y ait toujours des comptables...
Et, puis, après, ce fut le célèbre : "avec l'informatique on va vers le zéro papier"... Quand je vois les montagnes de papier que l'on utilise encore aujourd'hui, je rigole.
Ensuite on a prédit : Linux, c'est la fin de Windows ! Bon, ben, encore raté.
etc, etc, etc.

Bref, il y a toujours des gens pour faire des prédictions sur l'avenir dès qu'une technologie apparait, mais, ces prédictions ne valent que ce qu'elles sont, des prédictions sans réels fondements, juste sur un sentiment, une impression et plus souvent encore, un engouement pour la nouveauté.

Aujourd'hui, c'est l'IA qui va remplacer : les comptables (tiens, encore eux), les développeurs, les banquiers, les avocats, les chauffeurs de taxi, les routiers, ... mais aussi les profs, et pourquoi pas les élèves ?
Pour moi, l'IA est juste un logiciel de brassage de données à grande échelle. Le I de IA est galvaudé. Il n'y a aucune intelligence derrière tout ça, mais surtout, il y a beaucoup de connerie devant cette appellation.
Je dirais simplement : Wait & See.

les boites cherche a maximiser les profits et donc la volonté se débarasser au maximum de la masse salarial n'est pas déconnant.
j'ai juste dit "il existe une probabilité non nuls que ca remplace 30% des métiers de bureaux", donc je me mouille pas trop hein
1  0 
Avatar de Prox_13
Membre confirmé https://www.developpez.com
Le 12/09/2023 à 11:26
C'est quand même dommage, techniquement les études sont des sources d'informations; Je pense que l'homme est plus à même de transmettre des nouvelles connaissances qu'une IA de prédiction de mot, non ?
1  0 
Avatar de Axel Mattauch
Membre actif https://www.developpez.com
Le 12/09/2023 à 12:18
Citation Envoyé par Bruno Voir le message
Un chercheur français repère l'utilisation illégitime de ChatGPT dans des articles
[...]
De nombreux éditeurs, dont Elsevier et Springer Nature, ont déclaré que les auteurs pouvaient utiliser ChatGPT et d'autres grands modèles de langage (LLM) pour les aider à rédiger leurs manuscrits, à condition qu'ils le déclarent. Toutefois, Springer Nature a annoncé en début d’année que ChatGPT, ou tout système similaire de génération de texte, ne peut pas être crédité en tant qu'auteur dans les articles publiés dans ses revues. L'éditeur ne voit aucun problème au fait que l'IA soit utilisée pour aider à rédiger des recherches, mais elle exige que son utilisation soit correctement divulguée. [...]
Pour toutes choses il faut raison garder.
  • Je ne vois aucune raison de se priver de l'usage d'un outil s'il apporte des bénéfices (et sous réserve de contreparties acceptables)
  • Comme tout outil, il faut apprendre à s'en servir.


Je vous laisse décliner ces deux affirmations sur les exemples cités.
Si les articles scientifiques sont de la daube (non originales, erronées etc) il n'y a pas lieu d'en incomber la responsabilité à l'outil. De nombreux articles sont pourris sans l'aide de l'IA.


Une anecdote au sujet du volet "triche": Durant ma scolarité j'ai eu l'occasion de faire des antisèches. J'en préconise la pratique: préparer de façon concise de tels aide-mémoire est un moteur puissant pour comprendre le cours, en capter l'essentiel, et retenir ces informations.
Pour autant que je m'en souvienne, je ne les ai jamais exploitées.
1  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 04/09/2023 à 8:53
Citation Envoyé par totozor Voir le message
Fun Fact : On avait un étudiant qui faisait un stage pour introduire l'IA sur une de nos activités. On a fait la relecture de son rapport qui est rédigé en anglais. Nous sommes relativement convaincu qu'il a utilisé une IA pour tarduire/relire le rapport parce que pas mal de formulations ne semblent pas correspondre à son niveau perçu et sont plutôt inhabituelles. Ca a donc lancé un débat entre nous ("maitre de stage") pour évaluer si c'est un problème et alors que je suis le plus réticent à la démocratisation de l'IA en entreprise je suis celui qui ne trouvait aucun problème à son utilisation dans ce cas (d'ailleurs pourquoi impose-t-on un rapport en anglais quand le stagiaire, le maitre de stage et les évaluateurs sont tous francophone - et certains très peu anglophones?)
l'ia est la pour aider.
si il a utilisé chatgpt pour traduire son texte, si son texte et bien traduit... ou est le soucis ? moi j'utilise google trad au quotidien.
sauf si c'est un stagiaire en langue vivante/traduction, mais bon la a tous les étudiants, ces métiers n'ont plus aucun avenir

de même certaines partie de son rapport peuvent etre générer avec l'ia sans problème, je pense à l'intro, la conclusion, la présentation de l'entreprise
moi je copiait collait wikipedia/le site web de la boite en modifiant quelques mots histoire de pas me faire griller pour la présentation de l'entreprise.

le reste, la présentation de son équipe et de sa mission, ce doit être fait par lui même, relu et corrigé par une ia histoire d'enlever les fautes d'orthographe et rester dans un lexique professionnel (éviter les expressions qu'on emploie souvent a l'oral entre pote mais pas en entreprise dans un rapport)

a terme de toute façon ces étudiants doivent se préparer a se retrouver au chômage et/ou se reconvertir dans des métiers manuel comme éboueurs, égoutiers, chauffagistes...
il existe une probabilité non nuls que des ia comme chatgpt remplace une partie (pas la totalités, mais au moins facile 30%) des devs, des comptables, des rh, des profs, des chef de projet, des pdg, des commerciaux bref tous les métiers de bureaux....
0  0 
Avatar de Gluups
Membre expérimenté https://www.developpez.com
Le 04/09/2023 à 11:20
Citation Envoyé par Jon Shannow Voir le message
Ensuite on a prédit : Linux, c'est la fin de Windows ! Bon, ben, encore raté.
etc, etc, etc.
Non, en effet, les gens ne sont pas suffisamment motivés.
Je dirais plutôt que la fin de Windows, c'est Microsoft.

Mais il faut se méfier qu'ils sont motivés.
Sur une machine de moins de 32 Go de mémoire, Windows n'en a plus que pour deux ans, sauf si Microsoft change d'avis.

Et ce n'est pas forcément une mauvaise chose.
Ma machine étant en panne, sur la machine de secours j'utilise Unix. Je n'ai dit qu'à un seul endroit qu'il me fallait du 22px, et tout le système est lisible, même les infobulles.
C'est reposant.

Alors oui, c'est du boulot, et il n'est pas fait.
Sur une vingtaine de points j'ai eu à me dépêtrer moi-même en lisant des docs en Anglais, et ça commençait par savoir où sélectionner la langue pour le clavier.

C'est pour ça que les deux ans ne seront pas forcément de trop.

Comme je n'ai pas tout installé encore, j'ai ouvert une session Windows. Un disque a été formaté en douce, les sites web ne peuvent pas être lus car la notice sur les cookies prend toute la page, vu que sur 32 Go de stockage il est préférable d'utiliser les logiciels par défaut.

Bon à part ça, tu déclares encore tes revenus sur papier ?
0  0