IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI s'empresse de modifier ses conditions générales de confidentialité afin de réduire les risques réglementaires dans toute l'UE
Tandis que Bruxelles fait des progrès sur sa législation sur l'IA

Le , par Stéphane le calme

5PARTAGES

5  0 
OpenAI a entrepris de modifier ses conditions de confidentialité pour ses services destinés aux particuliers, tels que ChatGPT, DALL·E et d’autres. Cette décision intervient alors que l’Union européenne prépare une nouvelle législation sur l’IA, qui pourrait imposer des exigences strictes en matière de transparence, de responsabilité et de protection des données.

Début décembre, les négociateurs du Parlement et du Conseil sont parvenus à un accord provisoire sur la législation sur l’intelligence artificielle. La loi sur l’IA a été conçue à l’origine pour atténuer les dangers liés à des fonctions spécifiques de l’IA en fonction de leur niveau de risque, de faible à inacceptable. Mais les législateurs ont décidé de l'étendre aux modèles à usage général, les systèmes avancés qui sous-tendent les services d'IA à usage général comme ChatGPT et le chatbot Bard de Google.

L'AI Act établit une nouvelle référence mondiale pour les pays cherchant à exploiter les avantages potentiels de la technologie, tout en essayant de se protéger contre ses risques possibles, comme l'automatisation des emplois, la diffusion de fausses informations en ligne et la mise en danger de la sécurité nationale. La loi doit encore franchir quelques étapes finales avant d'être approuvée, mais l'accord politique signifie que ses grandes lignes ont été fixées.

Les décideurs politiques européens se sont concentrés sur les utilisations les plus risquées de l’IA par les entreprises et les gouvernements, notamment celles destinées à l’application des lois et à l’exploitation de services cruciaux comme l’eau et l’énergie. Les fabricants des plus grandes technologies d’IA à usage général les systèmes, comme ceux qui alimentent le chatbot ChatGPT, seraient confrontés à de nouvelles exigences de transparence. Les chatbots et les logiciels créant des images manipulées telles que les « deepfakes » devraient indiquer clairement que ce que les gens voient a été généré par l’IA, selon les fonctionnaires de l’UE et les versions antérieures de la loi.

L'utilisation de logiciels de reconnaissance faciale par la police et les gouvernements serait restreinte en dehors de certaines exemptions en matière de sûreté et de sécurité nationale. Les entreprises qui enfreignent la réglementation pourraient se voir infliger des amendes pouvant atteindre 7 % de leurs ventes mondiales.


OpenAI entreprend de se mettre en conformité

L’entreprise s'est lancée dans une course contre la montre pour faire tout ce qui est en son pouvoir afin de réduire le risque réglementaire dans l’UE après avoir été mise sous surveillance pour violation de la vie privée des citoyens. C'est la principale raison pour laquelle l'entreprise a entrepris de modifier ses termes et conditions.

ChatGPT a été accusée d'affecter négativement la vie privée des utilisateurs avec toute une série d'enquêtes en place pour contrecarrer les problèmes de protection des données liés à la manière dont les chatbots traitent les données des utilisateurs et à la manière dont ils produisent des données en général, y compris celles provenant des principaux organismes de surveillance dans la région.

Pour mémoire, début 2023, le Garante per la protezione dei dati personali (en français Garant de la protection des données personnelles) a bloqué le site Web d'OpenAI hébergeant le modèle. Les autorités cherchaient à savoir si le logiciel collectait illégalement des données sur les citoyens et si la technologie pourrait nuire aux mineurs de moins de 13 ans. L'Italie est ainsi devenue le premier pays à réglementer ChatGPT, d'autres pays de l'UE comme l'Allemagne lui ont emboîté le pas.

L'organisme de surveillance a déclaré que le 20 mars, l'application avait subi une violation de données impliquant des conversations d'utilisateurs et des informations de paiement. Il a déclaré qu'il n'y avait aucune base légale pour justifier « la collecte et le stockage massifs de données personnelles dans le but de 'former' les algorithmes sous-jacents au fonctionnement de la plateforme ». Il a également déclaré que puisqu'il n'y avait aucun moyen de vérifier l'âge des utilisateurs, l'application « expose les mineurs à des réponses absolument inadaptées par rapport à leur degré de développement et de sensibilisation ».

Le blocage de ChatGPT en Italie est intervenu quelques jours après que l'agence de police européenne Europol a averti que les criminels étaient sur le point d'utiliser l'application pour commettre des fraudes et d'autres cybercrimes, du phishing aux logiciels malveillants.

OpenAI a finalement repris ses activités dans le pays un peu plus tard.


Une mise à jour de la politique d'utilisation qui sera applicable dès le 1er février

En mi-novembre, avant le consensus provisoire sur l'AI Act, OpenAI a mis à jour les conditions d'utilisations s'appliquant à ses services ChatGPT, Dall-E et autres pour les personnes physiques, et de tous les sites internet, applications et technologies associés pour les personnes physiques résidant dans l'Espace Economique Européen, en Suisse ou au Royaume-Uni.

Voici quelques éléments qui ressortent de la mise à jour de la politique:
Inscription et accès
  • Pour consentir à l'utilisation des services, il faut au moins 13 ans, ou alors l'âge minimum requis dans le pays de résidence de l'utilisateur. Pour les moins de 18 ans, OpenAI demande qu'ils obtiennent l'autorisation de l’un de leurs parents ou de leur tuteur légal.
  • Lors de l'inscription, OpenAI demande de fournir des informations exactes et complètes. L'entreprise interdit le partage des identifiants de votre compte, encore moins le fait de mettre votre compte à la disposition de quelqu'un d'autre et elle tient l'utilisateur pour responsable de toutes les activités qui se déroulent sur son compte. Si vous créez un compte ou utilisez les Services pour le compte d'une autre personne ou entité, vous devez être autorisé à accepter les présentes Conditions pour leur compte.

Résiliation et suspension
  • Vos droits. Vous pouvez cesser d'utiliser nos Services et mettre fin à votre relation avec OpenAI à tout moment en fermant simplement votre compte et en cessant d'utiliser les Services.
  • Droit de Rétractation du Consommateur de l'EEE. Si vous êtes un consommateur résidant dans l'EEE, vous pouvez fermer votre compte et vous rétracter des présentes Conditions dans les 14 jours suivant leur acceptation en contactant le service Support ou en remplissant et en nous envoyant le formulaire de rétractation.
  • Droits d'OpenAI. Nous pouvons prendre des mesures pour suspendre ou résiliier votre accès à nos Services ou fermer votre compte si nous déterminons, de manière raisonnable et objective que :
    • Vous avez enfreint les présentes Conditions ou nos Politiques d'Utilisation.
    • Cela est nécessaire pour nous conformer à la loi.
    • Votre utilisation de nos Services pourrait entraîner des risques pour ou causer des dommages à OpenAI, nos utilisateurs ou toute autre personne.
    • Votre compte est inactif depuis plus d'un an et vous n'avez pas de compte payant.

Cependant, l'entreprise a commencé à envoyer des courriels à ses utilisateurs fin décembre. « Nous avons remplacé l'entité OpenAI qui fournit des services tels que ChatGPT aux résidents de l'EEE et de la Suisse par notre entité irlandaise, OpenAI Ireland Limited », indique-t-elle.

Une mise à jour parallèle de la politique de confidentialité d’OpenAI pour l’Europe stipule en outre*:

Si vous résidez dans l'Espace économique européen (EEE) ou en Suisse, OpenAI Ireland Limited, dont le siège social est situé au 1er étage, The Liffey Trust Centre, 117-126 Sheriff Street Upper, Dublin 1, D01 YC43, Irlande, est le responsable du traitement de vos données personnelles comme décrit dans la présente politique de confidentialité.
Les utilisateurs sont informés que s’ils ne sont pas d’accord avec les nouvelles conditions d’OpenAI, ils peuvent supprimer leur compte.


Guichet unique

Pour mémoire, avant l’entrée en application du RGPD, les entreprises établies dans plusieurs États membres de l’Union européenne devaient s’adresser à chaque autorité de chaque État membre dans lequel elles avaient un établissement. Chacune de ces autorités de protection des données décidait seule. Ces démarches étaient lourdes et chronophages pour les entreprises concernées et la multiplication d’interlocuteurs ne permettait pas de garantir une application uniforme des règles européennes.

Pour résoudre ces difficultés, le RGPD a institué un mécanisme de « guichet unique » pour faciliter les démarches des entreprises concernées.

Il repose sur les trois principes suivants :
  • Un mécanisme ouvert aux seules entreprises établies en UE : lorsqu’une entreprise met en œuvre un traitement de données « transfrontalier », elle bénéficie d’un mécanisme de contrôle simplifié. Celui-ci ne s’applique pas aux entreprises exclusivement établies hors de l’UE.
  • Un interlocuteur unique pour les responsables de ces traitements : il s’agit de l’autorité « chef de file », c’est-à-dire l’autorité de protection des données du pays où se trouve l’établissement principal de l’entreprise. C’est auprès de cette seule autorité que les différentes obligations prévues par le RGPD doivent être accomplies. Elle est en outre chargée de coordonner la prise de décision avec les autres autorités de protection des données concernées par le traitement transfrontalier.
  • Une seule décision valable dans toute l’UE : toute décision de l’autorité chef de file aura été prise en concertation avec l’ensemble des autorités de protection des données concernées. Elle présentera donc l’interprétation commune des autorités européennes concernant le traitement transfrontalier à l’égard duquel la décision est prise.

L’obtention de ce statut réduit donc la capacité des organismes de surveillance de la vie privée situés ailleurs dans le bloc à agir unilatéralement en réponse aux préoccupations. Au lieu de cela, ils vont renvoyer les plaintes à l'organisme où est situé le siège social pour examen.

D’autres régulateurs du RGPD conservent toujours le pouvoir d’intervenir localement s’ils constatent des risques urgents. Mais ces interventions sont généralement temporaires. Elles sont également exceptionnelles par nature, l’essentiel de la surveillance du RGPD étant acheminé via une autorité chef de file. C’est pourquoi ce statut s’est révélé si attrayant pour les Big Tech, permettant aux plateformes les plus puissantes de rationaliser la surveillance de la confidentialité de leur traitement transfrontalier de données personnelles.

Lorsqu'il lui a été demandé si OpenAI travaillait avec l'organisme irlandais de surveillance de la vie privée pour obtenir le statut d'établissement principal pour son entité basée à Dublin, dans le cadre du guichet unique du RGPD, une porte-parole de la Commission irlandaise de protection des données (DPC) a déclaré : « Je peux confirmer qu'Open AI a collaboré avec la DPC et d’autres DPA de l’UE [autorités de protection des données] sur cette question ».

OpenAI a ouvert un bureau à Dublin en septembre, embauchant initialement une poignée de membres du personnel politique, juridique et chargé de la vie privée, en plus de certains rôles de back-office.

Au moment de la rédaction de cet article, il n'y a que cinq postes vacants basés à Dublin sur un total de 100 répertoriés sur sa page Carrières, de sorte que l'embauche locale semble encore limitée. Un responsable de la politique et des partenariats des États membres de l'UE basé à Bruxelles, qu'il recrute également actuellement, demande aux candidats de préciser s'ils sont disponibles pour travailler depuis le bureau de Dublin trois jours par semaine. Mais la grande majorité des postes vacants d'OpenAI sont répertoriés à San Francisco/États-Unis.


L'un des cinq postes basés à Dublin annoncés par OpenAI est celui d'un ingénieur logiciel de confidentialité. Les quatre autres sont destinés : au directeur de compte, plateforme ; spécialiste de la paie internationale*; relations avec les médias, direction européenne*; et ingénieur commercial.

Qui et combien d'embauches OpenAI effectue à Dublin sera pertinent pour l'obtention du statut d'établissement principal en vertu du RGPD, car il ne s'agit pas simplement de remplir quelques documents juridiques et de cocher une case pour obtenir le statut. L’entreprise devra convaincre les régulateurs de la vie privée du bloc que l’entité basée dans l’État membre qu’elle désigne comme légalement responsable des données des Européens est réellement en mesure d’influencer la prise de décision la concernant.

Cela signifie disposer de l’expertise et des structures juridiques appropriées pour exercer une influence et mettre en place des contrôles de confidentialité significatifs sur un parent américain.

En d’autres termes, ouvrir un front office à Dublin qui se contenterait d’approuver les décisions relatives aux produits prises à San Francisco ne devrait pas suffire.

Si OpenAI obtient le statut de principal établissement sous le RGPD en Irlande, obtenant la supervision principale du DPC irlandais, il rejoindra Apple, Google, Meta, TikTok et X, pour ne citer que quelques-unes des multinationales qui ont choisi de s'établir dans ce pays en UE.

Un organisme critiqué

Le DPC, quant à lui, continue de susciter de nombreuses critiques quant au rythme et à la cadence de sa surveillance des grandes enseignes technologiques sous le prisme du RGPD. Et même si ces dernières années ont vu un certain nombre de sanctions qui ont fait la une des médias contre les grandes entreprises technologiques, les critiques de l'Irlande soulignent que le régulateur préconise souvent des sanctions nettement inférieures à celles de ses pairs. D’autres critiques incluent le rythme lent et/ou la trajectoire inhabituelle des enquêtes de la DPC. Ou encore des cas où il choisit de ne pas enquêter du tout sur une plainte, ou choisit de la recadrer d'une manière qui contourne la principale préoccupation (comme la plainte Google AdTech).

Toute enquête RGPD existante sur ChatGPT, comme par les régulateurs en Italie et en Pologne, peut encore avoir des conséquences en termes de façonnage de la réglementation régionale du chatbot d'IA générative d'OpenAI, car les enquêtes sont susceptibles de suivre leur cours étant donné qu'elles concernent le traitement des données antérieur à tout futur statut d’établissement principal qu'OpenAI pourrait acquérir. Mais l’impact qu’elles pourraient avoir est moins clair.

Sources : conditions d'utilisation pour les résidents en EEE, carrière OpenAI, CNIL, courriel OpenAI

Et vous ?

Que pensez-vous des nouvelles conditions de confidentialité d’OpenAI pour ses services d’IA génératifs ?
Que pensez-vous du RGPD couplé à l'AI Act ? Des réglementations suffisantes pour encadrer l'utilisation de l’IA ?
Que pensez-vous du fait qu'OpenAI cherche à faire de sa filiale à Dublin un guichet unique ? Êtes-vous surpris par la manœuvre ? Dans quelle mesure ?
Avez-vous déjà utilisé ou envisagez-vous d’utiliser les services d’OpenAI, tels que ChatGPT, DALL·E ou d’autres ? Si oui, dans quel but et avec quelles précautions ?
Quels sont les avantages et les inconvénients des modèles d’IA génératifs, tels que les grands modèles de langage, pour la société et pour les individus ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
4  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 10/04/2024 à 8:01
Citation Envoyé par Jade Emy Voir le message
Il est essentiel de se pencher sur le type d'impact environnemental que l'IA peut finir par avoir. Cependant, il s'avère que l'IA pourrait en fait produire moins d'émissions de carbone que les humains, ce qui la rendrait plus durable. L'IA émet des centaines de fois moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.
C'est une analyse intéressante mais est ce que ça veut dire qu'utiliser une IA émet moins de carbone qu'utiliser une personne?
Non, pour une raison simple:
Quand la personne travaille et pas l'IA, l'IA n'émet rien
Quand l'IA travaille et pas la personne, la personne émet toujours.
Donc il faudrait comparer le surplus d'émission de la personne quand elle travaille à l'IA.
Les autres facteurs sont nombreux :
L'IA produit (probablement) peu de carbone quand elle travaille parce qu'elle est plus rapide que l'homme mais combien émet son apprentissage?
L'IA nécessite une revue de son travail plus importante que la personne donc combien émet la différence de revue?
Combien d'IA différente faut il pour remplacer toutes les taches d'une personne?
Et je n'ai pas encore parlé de l'apport social d'une personne...

Pensez-vous que cette étude est crédible ou pertinente ?
L'étude en tant que telle à l'air crédible (faite de façon honnête et rigoureuse) par contre le but de celle ci me parait beaucoup moins pertinent.
Quelle conclusion tirer? Qu'il faut faire travailler les IA plutôt que les personnes pour l'édition? Ce n'est pas ce que disent les chercheurs, c'est pourtant ce que nous lisons.
Qui a financer cette étude? Dans quel but? Avec ces réponses nous aurons peut être une clarification de sa pertinence.
On sait que l'un des auteur détient des actions chez NVIDIA mais je n'ai rien trouvé chez le financeur.
Quel est votre avis sur le sujet ?
L'IA n'a rien d'écologique parce qu'elle ajoute de la production de carbone à la production humaine, attaquer la question par cet angle est absurde. (A moins que l'on décide de "faire disparaitre" les personnes qui deviennent "inutiles" mais on dérive vers des gros problèmes éthiques).
Par contre l'IA a d'autres avantages qui méritent d'être étudiés.

Des gens essayent d'aborder les sujets de façon "rationnelle" en ce moment pour transformer des solutions plus ou moins absurdes en bon sens.
La Science n'apporte pas toujours les bonnes réponses aux problèmes parce qu'elle ignore les sciences humaines ou l'éthique.
Pourtant il me semble qu'Asimov nous avait déjà prévenu que cette méthode ne fonctionnait pas.
2  0 
Avatar de pierre-y
Membre chevronné https://www.developpez.com
Le 14/02/2024 à 13:03
L'UE c'est vraimment le bal de la corruption. Quand je pense que la parlementaire grec qui c'était fait choper a recevoir du blé du Qatar a put tranquillement reprendre son poste comme si de rien n'était... C'est vraiment a vomir.
2  1 
Avatar de Eye_Py_Ros
Nouveau membre du Club https://www.developpez.com
Le 10/04/2024 à 15:18
> Pensez-vous que cette étude est crédible ou pertinente ?
> Quel est votre avis sur le sujet ?

Que dire que dire, un petit essai improvisé.
Pour commencer cette étude à un objectif assez clair et malsain, contrer le bashing de l'IA qui pollue à cause de sa consommation excessive en ressource en ce qui concerne sa création / entraînement / formation.
Je dirais que l'étude est remplie de biais, mais aussi qu'elle souligne un sujet mortifère et dont les philosophes devraient se saisir.

Pour commencer en ce qui concerne les biais, les graphiques sont ultras simpliste et ne prenne pas en compte les ressources nécessaires pour l'entraînement des AI ni même les ressources consommées pour concevoir le hardware.
De la production de silicium au GPU en passant par l'humain qui a conçu le GPU à la chaîne d'assemblage jusqu'au data center où elle est en fonction à déjà consommé plusieurs années CO2 d'une ville humaine.

La conclusion stéréotypée que l'on peut faire de ce genre d'étude. Au mon dieu, un humain, ça respire ça émet du CO2, un caillou alimenté avec de l'Énergie pure sa ""n'émet pas"" de CO2. Il faut donc remplacer toute la population humaine par des cailloux qui imite les humains.
Je tire volontairement le trait, mais c'est une pente glissante vers lequel les bobo extrêmes écolos ont tendance à prendre de vouloir éliminer le vivant sous prétexte qu'il émet du CO2. Si on suit leur logique uniquement les plantes auraient le droit de vivre puisqu’elles n'émettent pas de CO2 (dans leurs schémas de pensée) ce qui est faux et sans CO2 elles ne peuvent se développer autant... Alors si on en fait la seule source de nourriture...

Concernant les schémas on nous montre une quantité d'Énergie consommée en instantané lorsque le réseau (de neurones en cailloux) fait une génération unique, versus le pc d'un auteur allumé.
Déjà pour commencer le biais, un serveur qui fait tourner de l'IA est allumé H24, consomme rien que pour être allumé 100W et peut monter à 3000W voir plus. Le pc d'un auteur est allumé disons 6-8h et un pc portable sobre peut, disons consommer au max 25w dans un standard sobre écoresponsable. De plus un auteur peut ne pas passer toute une session d'écriture sur un pc, on peut aussi avoir des machines tablette dans le futur à base d'epaper comme écran, utiliser le stylo et la feuille.... Donc déjà la méthode de travail est un biais choisi non représentatif des "travailleurs" du secteur. Doit-on compter les repas, et la tasse de café en terrasse ?

Idem dans la création d'images, un peintre ne va pas utiliser un ordinateur de la même manière voir pas du tout, un photographe non plus et un graphiste peut faire des recherches de diverses manières. Leur activité n'est pas 100% numérique.

Coté IA, ouaaa une génération consomme peux. Sauf que qui aujourd'hui ne demande pas à l'IA plusieurs générations pour avoir un résultat un peut exploitable et qui ne passe pas un peu de temps pour intégrer la réponse...
10 générations consommeraient déjà le CO2 pour une journée de travail humain. Or il est si facile de cliquer sur généré que l'étude ne prend pas en compte le fait que cette facilité va augmenter le nombre de générations demandé et donc pour une même tache incitée à consommer plus.
Plutôt qu'un travail réfléchis, fait et plutôt droit au but, on va frénétiquement cliqué sur générer, une, deux, 10, 20, 50 fois dans la journée jusqu'à avoir un travail prémâché qu'il faudra de toute façon relire puis intégrer.

Au final une IA, est un outil qui consomme, et sa facilité d'usage poussera a consommer par ce que dans un même espace de temps on le peut.
Et si on pense éliminer complètement les humains, alors nous allons créer une société de machine qui travaillera pour des machines.
Le summum du capitalisme, nous créons du travail/ de la valeur à l'aide de machine pour qu'elle soit consommée par d'autres machines et faire tourner le capitalisme.

Nous avons des Shadock qui pompe, que nous remplaçons par des machines qui pompes pour se maintenir entre elles en vie et soutenir artificiellement le capitalisme et "sa croissance infinie" artificielle.
On va basculer d'une économie pétrodollar en data dollar.
(et il faudra mettre des humains sur des vélos pour combler le manque de pétrole pour alimenter en Énergie les machines)

Tout ceci est absurde tout comme confondre un outil et une volonté créatrice vivante.
Le côté mortifère, c'est de vouloir a tout pris évincer l'humain de la composante économique pour des raisons de coûts. De l'autre côté, ce que l'on aura sacrifié... nous fera plonger vers une économie dystopique, avec une économie parallèle qui ne sert qu'aux machines et de l'autre, des humains tout tombés dans la précarité.
Et le risque, c'est un arrêt de la créativité, un grippage de l'inventivité et d'évolution.
Où à côté d'usines fumantes, nous aurions une population qui n'a plus les moyens de consommer.
Sauf, si la réalité réajuste la situation, car non viable et qu'un mixte des deux finissent par co exister.

Ce que je dirais, c'est que ce genre d'étude envoie un signal malsain coté sociétal, poussant des résonnements inachevés polarisant des questions légitimes en réponse absurde. Plantant les graines d'idéologie néfaste pour une société.

Nous sommes nés trop tard pour explorer les continents, trop tôt pour explorer Mars, mais dans l'époque de l'avènement de l'IA et d'un grand bouleversement économique et sociétal mondiaux en perspective que l'on veuille ou non.
L'avenir dépend de ce qui est en train de s'écrire, des luttes et intérêts de certains. De l'éducation ou du manque des masses en vers ce type d'enjeux, et si nous finissons tout droits vers un avenir dystopique d'une dictature mondiale et d'une misère qui fera régresser l'humanité ou si nous deviendrons tous lucide sur le sujet. comme le plat réchauffé que les mails allaient tuer le métier de postier. Que les livres numériques allaient faire disparaître les imprimeurs ect, ect.

Tous sa pour dire (sans se méprendre, ça reste intéressant que le site nous permette de faire une veille techno) y en a marre de ce genre d'étude de lobbying pondu par des cabinets com , la seule chose que ça génère c'est de la méfiance en vers les études et une perte de crédibilité du peuple en vers toutes analyses et réflexion.
Remplaçons les cabinets de com par de l'IA, peut être que l'on aura moins de mensonge comme ça.
1  0