IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La Chine a accepté de travailler avec les États-Unis, l'Union européenne et d'autres pays pour gérer collectivement les risques liés à l'intelligence artificielle

Le , par Anthony

0PARTAGES

5  0 
La Chine a accepté de travailler avec les États-Unis, l'Union européenne et d'autres pays pour gérer collectivement les risques liés à l'intelligence artificielle lors d'un sommet britannique qui s'est tenu le mercredi 1 novembre 2023 et qui visait à tracer une voie sûre pour l'évolution rapide de cette technologie.

Certains dirigeants du secteur technologique et leaders politiques ont mis en garde contre le développement rapide de l'IA qui, s'il n'est pas contrôlé, représente une menace existentielle pour le monde, déclenchant une course des gouvernements et des institutions internationales pour concevoir des mesures de protection et des réglementations.

Pour la première fois, un vice-ministre chinois s'est joint aux dirigeants des États-Unis et de l'Union européenne, ainsi qu'à des patrons du secteur technologique tels qu'Elon Musk et Sam Altman, de ChatGPT, à Bletchley Park, lieu de résidence des décrypteurs britanniques de la Seconde Guerre mondiale, dans le cadre des efforts déployés par l'Occident pour gérer le développement sûr de l'IA.

Plus de 25 pays présents, dont les États-Unis, la Chine et l'Union européenne, ont signé une "déclaration de Bletchley" indiquant que les pays devaient travailler ensemble et établir une approche commune en matière de surveillance.

La déclaration présente un programme à deux volets, axé sur l'identification des risques d'intérêt commun et sur la compréhension scientifique de ces risques, ainsi que sur l'élaboration de politiques transnationales visant à les atténuer.

Wu Zhaohui, vice-ministre chinois de la science et de la technologie, a déclaré lors de la séance d'ouverture du sommet de deux jours que Pékin était prêt à renforcer la collaboration sur la sécurité de l'IA afin de contribuer à la mise en place d'un "cadre de gouvernance" international.

"Les pays, quelles que soient leur taille et leur échelle, ont les mêmes droits de développer et d'utiliser l'IA", a-t-il déclaré.


Les craintes concernant l'impact que l'IA pourrait avoir sur les économies et la société ont pris de l'ampleur en novembre de l'année dernière, lorsque OpenAI, soutenu par Microsoft, a mis ChatGPT à la disposition du public.

Utilisant des outils de traitement du langage naturel pour créer des dialogues semblables à ceux des humains, il a alimenté les craintes, y compris chez certains pionniers de l'IA, que les machines puissent à terme devenir plus intelligentes que les humains, ce qui entraînerait des conséquences illimitées et involontaires.

Les gouvernements et les fonctionnaires tentent à présent de tracer la voie à suivre, aux côtés des entreprises d'IA qui craignent d'être alourdies par la réglementation avant que la technologie n'ait atteint son plein potentiel.

"Je ne sais pas quelles sont les règles les plus justes, mais il faut commencer par comprendre avant de surveiller", a déclaré le milliardaire Musk à la presse, ajoutant qu'un "arbitre tiers" pourrait être utilisé pour tirer la sonnette d'alarme lorsque des risques se présentent.

Alors que l'Union européenne a axé sa surveillance de l'IA sur la confidentialité des données, la surveillance et l'impact potentiel sur les droits de l'homme, le sommet britannique se penche sur les risques dits existentiels liés à des modèles polyvalents très performants appelés "IA frontière".

Mustafa Suleyman, cofondateur de Google Deepmind, a déclaré aux journalistes qu'il ne pensait pas que les modèles d'IA d'avant-garde actuels présentaient des "dommages catastrophiques significatifs", mais qu'il était logique de planifier à l'avance, car l'industrie forme des modèles de plus en plus grands.

Le lieu de décryptage

Le sommet est une idée du Premier ministre britannique Rishi Sunak, qui souhaite que son pays joue, après le Brexit, un rôle d'intermédiaire entre les blocs économiques que sont les États-Unis, la Chine et l'Union européenne.

La ministre britannique du numérique, Michelle Donelan, a déclaré que le simple fait de réunir autant d'acteurs clés dans une même salle constituait un véritable exploit. Elle a annoncé la tenue de deux autres sommets sur la sécurité de l'IA, l'un en Corée du Sud dans six mois et l'autre en France six mois plus tard.

"Pour la première fois, des pays s'accordent sur la nécessité d'examiner non seulement de manière indépendante, mais aussi collectivement, les risques liés à l'IA d'avant-garde", a déclaré Mme Donelan à la presse.

Alors que les entreprises technologiques rivalisent pour dominer l'IA, les gouvernements se bousculent pour montrer la voie en matière de réglementation.


La Chine est un participant clé au sommet, étant donné le rôle qu'elle joue dans le développement de l'IA. Toutefois, certains législateurs britanniques se sont interrogés sur l'opportunité de sa présence, compte tenu du manque de confiance entre Pékin, Washington et de nombreuses capitales européennes en ce qui concerne l'implication de la Chine dans la technologie.

À la veille du sommet, les États-Unis ont clairement indiqué que l'appel lancé à Pékin émanait en grande partie de la Grande-Bretagne. Leur ambassadrice à Londres, Jane Hartley, a déclaré : "Il s'agit d'une invitation du Royaume-Uni, et non des États-Unis."

La décision de la vice-présidente des États-Unis, Kamala Harris, de prononcer un discours à Londres mercredi sur la réponse de son gouvernement à l'IA et de tenir certaines réunions avec les participants en dehors du sommet, ce qui signifie qu'ils pourraient devoir partir plus tôt, a également suscité quelques froncements de sourcils.

Sachin Dev Duggal, fondateur de la société d'IA Builder.ai, basée à Londres, a déclaré que cela risquait de nuire à l'objectif principal de l'événement, tandis que certains législateurs du parti conservateur de M. Sunak ont suggéré que Washington essayait de faire de l'ombre à son sommet.

Les responsables britanniques ont démenti cette affirmation, affirmant qu'ils souhaitaient que le plus grand nombre de voix possible s'expriment.

Quelques jours après la signature par le président américain Joe Biden d'un décret sur l'IA, son gouvernement a profité du sommet britannique pour annoncer la création d'un institut américain de sécurité de l'IA.

M. Harris a rencontré M. Sunak plus tard dans la journée du mercredi, notamment à l'occasion d'un dîner, et participera à la deuxième journée du sommet, le jeudi.

Déclaration de Bletchley des pays participant au sommet sur la sécurité de l'IA

L'intelligence artificielle (IA) offre d'énormes possibilités à l'échelle mondiale : elle a le potentiel de transformer et d'améliorer le bien-être, la paix et la prospérité de l'humanité. Pour y parvenir, nous affirmons que, pour le bien de tous, l'IA doit être conçue, développée, déployée et utilisée en toute sécurité, de manière à être centrée sur l'humain, digne de confiance et responsable. Nous saluons les efforts déployés jusqu'à présent par la communauté internationale pour coopérer dans le domaine de l'IA afin de promouvoir une croissance économique inclusive, le développement durable et l'innovation, de protéger les droits de l'homme et les libertés fondamentales, et de favoriser la confiance du public dans les systèmes d'IA afin qu'ils réalisent pleinement leur potentiel.

Les systèmes d'IA sont déjà déployés dans de nombreux domaines de la vie quotidienne, notamment le logement, l'emploi, les transports, l'éducation, la santé, l'accessibilité et la justice, et leur utilisation est susceptible d'augmenter. Nous reconnaissons qu'il s'agit donc d'un moment unique pour agir et affirmer la nécessité de développer l'IA en toute sécurité et d'utiliser les possibilités de transformation de l'IA pour le bien et pour tous, d'une manière inclusive dans nos pays et dans le monde. Cela inclut les services publics tels que la santé et l'éducation, la sécurité alimentaire, la science, l'énergie propre, la biodiversité et le climat, la réalisation de la jouissance des droits de l'homme et le renforcement des efforts visant à atteindre les objectifs de développement durable des Nations unies.

Parallèlement à ces possibilités, l'IA présente également des risques importants, y compris dans les domaines de la vie quotidienne. À cette fin, nous saluons les efforts internationaux déployés pour examiner et traiter l'impact potentiel des systèmes d'IA dans les forums existants et d'autres initiatives pertinentes, ainsi que la reconnaissance de la nécessité d'aborder la protection des droits de l'homme, la transparence et l'explicabilité, l'équité, la responsabilité, la réglementation, la sécurité, la surveillance humaine appropriée, l'éthique, l'atténuation des préjugés, la protection de la vie privée et la protection des données. Nous notons également la possibilité de risques imprévus découlant de la capacité à manipuler le contenu ou à générer un contenu trompeur. Toutes ces questions sont d'une importance capitale et nous affirmons la nécessité et l'urgence de les traiter.

Des risques de sécurité particuliers se posent à la "frontière" de l'IA, c'est-à-dire aux modèles d'IA à usage général très performants, y compris les modèles de base, qui pourraient effectuer une grande variété de tâches - ainsi qu'à l'IA étroite spécifique pertinente qui pourrait présenter des capacités nuisibles - qui égalent ou dépassent les capacités présentes dans les modèles les plus avancés d'aujourd'hui. Des risques importants peuvent découler d'une éventuelle utilisation abusive intentionnelle ou de problèmes de contrôle involontaires liés à l'alignement sur l'intention humaine. Ces problèmes sont en partie dus au fait que ces capacités ne sont pas entièrement comprises et sont donc difficiles à prévoir. Nous sommes particulièrement préoccupés par ces risques dans des domaines tels que la cybersécurité et la biotechnologie, ainsi que dans les cas où les systèmes d'IA d'avant-garde peuvent amplifier des risques tels que la désinformation. Les capacités les plus importantes de ces modèles d'IA peuvent entraîner des dommages graves, voire catastrophiques, délibérés ou involontaires. Compte tenu de la rapidité et de l'incertitude de l'évolution de l'IA, et dans le contexte de l'accélération des investissements dans la technologie, nous affirmons qu'il est particulièrement urgent d'approfondir notre compréhension de ces risques potentiels et des mesures à prendre pour y faire face.

De nombreux risques découlant de l'IA sont par nature internationaux, et c'est donc par la coopération internationale que l'on peut le mieux y faire face. Nous décidons de travailler ensemble de manière inclusive pour garantir une IA centrée sur l'homme, digne de confiance et responsable, qui soit sûre et soutienne le bien de tous, par le biais des enceintes internationales existantes et d'autres initiatives pertinentes, afin de promouvoir la coopération pour faire face au large éventail de risques posés par l'IA. Ce faisant, nous reconnaissons que les pays devraient considérer l'importance d'une gouvernance et d'une approche réglementaire pro-innovation et proportionnée qui maximise les avantages et prend en compte les risques associés à l'IA. Cela pourrait inclure, le cas échéant, des classifications et des catégorisations de risques basées sur les circonstances nationales et les cadres juridiques applicables. Nous notons également la pertinence d'une coopération, le cas échéant, sur des approches telles que les principes communs et les codes de conduite. En ce qui concerne les risques spécifiques les plus susceptibles d'être liés à l'IA d'avant-garde, nous décidons d'intensifier et de maintenir notre coopération, et de l'élargir à d'autres pays, afin d'identifier, de comprendre et, le cas échéant, d'agir, dans le cadre des enceintes internationales existantes et d'autres initiatives pertinentes, y compris les futurs sommets internationaux sur la sécurité de l'IA.

Tous les acteurs ont un rôle à jouer pour garantir la sécurité de l'IA : les nations, les forums internationaux et autres initiatives, les entreprises, la société civile et le monde universitaire devront travailler ensemble. Notant l'importance d'une IA inclusive et de la réduction de la fracture numérique, nous réaffirmons que la collaboration internationale devrait s'efforcer d'engager et d'impliquer un large éventail de partenaires, le cas échéant, et nous nous félicitons des approches et des politiques axées sur le développement qui pourraient aider les pays en développement à renforcer leurs capacités en matière d'IA et à tirer parti du rôle habilitant de l'IA pour soutenir la croissance durable et combler le fossé du développement.

Nous affirmons que, si la sécurité doit être prise en compte tout au long du cycle de vie de l'IA, les acteurs qui développent des capacités d'IA d'avant-garde, en particulier les systèmes d'IA qui sont exceptionnellement puissants et potentiellement dangereux, ont une responsabilité particulièrement importante pour garantir la sécurité de ces systèmes d'IA, notamment par des systèmes d'essais de sécurité, des évaluations et d'autres mesures appropriées. Nous encourageons tous les acteurs concernés à faire preuve d'une transparence et d'une responsabilité adaptées au contexte en ce qui concerne leurs projets de mesure, de surveillance et d'atténuation des capacités potentiellement nuisibles et des effets associés qui pourraient en résulter, en particulier pour prévenir les abus et les problèmes de contrôle, ainsi que l'amplification d'autres risques.

Dans le cadre de notre coopération et afin d'éclairer l'action aux niveaux national et international, notre programme de lutte contre les risques liés à l'IA d'avant-garde sera axé sur les points suivants :

  • l'identification des risques de sécurité de l'IA d'intérêt commun, la construction d'une compréhension scientifique commune et fondée sur des preuves de ces risques, et le maintien de cette compréhension au fur et à mesure que les capacités continuent à augmenter, dans le contexte d'une approche globale plus large pour comprendre l'impact de l'IA dans nos sociétés.
  • l'élaboration de politiques respectives fondées sur les risques dans nos pays afin de garantir la sécurité à la lumière de ces risques, en collaborant le cas échéant, tout en reconnaissant que nos approches peuvent différer en fonction des circonstances nationales et des cadres juridiques applicables. Cela suppose, parallèlement à une transparence accrue de la part des acteurs privés qui développent des capacités d'IA d'avant-garde, de disposer de mesures d'évaluation appropriées et d'outils pour tester la sécurité, ainsi que de développer les capacités et la recherche scientifique pertinentes dans le secteur public.

Dans le cadre de ce programme, nous décidons de soutenir un réseau international de recherche scientifique sur la sécurité de l'IA d'avant-garde qui englobe et complète les collaborations multilatérales, plurilatérales et bilatérales existantes et nouvelles, y compris dans le cadre des enceintes internationales existantes et d'autres initiatives pertinentes, afin de faciliter la mise à disposition des meilleures données scientifiques disponibles pour l'élaboration des politiques et l'intérêt général.

Conscients du potentiel de transformation positive de l'IA, et dans le cadre d'une coopération internationale plus large sur l'IA, nous sommes résolus à maintenir un dialogue mondial inclusif qui fasse appel aux enceintes internationales existantes et à d'autres initiatives pertinentes et qui contribue de manière ouverte à des discussions internationales plus larges, et à poursuivre la recherche sur la sécurité de l'IA aux frontières afin de veiller à ce que les avantages de la technologie puissent être exploités de manière responsable, pour le bien et pour tous. Nous nous réjouissons de nous retrouver en 2024.
Source : Déclaration de Bletchley

Et vous ?

Quelle lecture faites-vous de cette situation ?

Que pensez-vous de cette initiative internationale visant à gérer collectivement les risques liés à l'IA ? Trouvez-vous qu'il s'agit d'une approche pertinente et cohérente ?

Voir aussi

Les États-Unis vont lancer leur propre institut de sécurité de l'IA, afin d'évaluer les risques émergents des modèles d'IA avancés et de traiter les impacts connus

Elon Musk déclare que le sommet sur la sécurité de l'IA vise à établir un "arbitre tiers", pour superviser les entreprises développant l'IA et tirer la sonnette d'alarme en cas d'inquiétude

Le G7 s'apprête à adopter un code de conduite pour les entreprises en matière d'IA, le code vise "à aider à saisir les avantages et à faire face aux risques et aux défis posés par ces technologies"

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
4  0 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 13/12/2023 à 16:20
Bonjour,
Un peu de rationalisation que diable. On reste sur de l'ia qui calcule les corrélations et en tire des arbres causaux sans décrire les mécaniques même avec LIME et SHAPE, alors que l'analyse grammaticale avec les COI et COD permet de déterminer le sujet et le complément , ce qui permet une logique de prédicat avec le respect des 3 lois d'ASIMOV. C'est un cauchemar. On va voir revenir le temps des sorciers même si Athur C Clarke parle de magie comme la techno qui disparaît. On va élever l'ordinateur au rang de Dieu dans la prochaine étape . C'est bien la peine de faire du modèle checking dans la norme ISO179 pour l'aéronautique ou dans le ferroviaire ....
2  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 10/04/2024 à 8:01
Citation Envoyé par Jade Emy Voir le message
Il est essentiel de se pencher sur le type d'impact environnemental que l'IA peut finir par avoir. Cependant, il s'avère que l'IA pourrait en fait produire moins d'émissions de carbone que les humains, ce qui la rendrait plus durable. L'IA émet des centaines de fois moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.
C'est une analyse intéressante mais est ce que ça veut dire qu'utiliser une IA émet moins de carbone qu'utiliser une personne?
Non, pour une raison simple:
Quand la personne travaille et pas l'IA, l'IA n'émet rien
Quand l'IA travaille et pas la personne, la personne émet toujours.
Donc il faudrait comparer le surplus d'émission de la personne quand elle travaille à l'IA.
Les autres facteurs sont nombreux :
L'IA produit (probablement) peu de carbone quand elle travaille parce qu'elle est plus rapide que l'homme mais combien émet son apprentissage?
L'IA nécessite une revue de son travail plus importante que la personne donc combien émet la différence de revue?
Combien d'IA différente faut il pour remplacer toutes les taches d'une personne?
Et je n'ai pas encore parlé de l'apport social d'une personne...

Pensez-vous que cette étude est crédible ou pertinente ?
L'étude en tant que telle à l'air crédible (faite de façon honnête et rigoureuse) par contre le but de celle ci me parait beaucoup moins pertinent.
Quelle conclusion tirer? Qu'il faut faire travailler les IA plutôt que les personnes pour l'édition? Ce n'est pas ce que disent les chercheurs, c'est pourtant ce que nous lisons.
Qui a financer cette étude? Dans quel but? Avec ces réponses nous aurons peut être une clarification de sa pertinence.
On sait que l'un des auteur détient des actions chez NVIDIA mais je n'ai rien trouvé chez le financeur.
Quel est votre avis sur le sujet ?
L'IA n'a rien d'écologique parce qu'elle ajoute de la production de carbone à la production humaine, attaquer la question par cet angle est absurde. (A moins que l'on décide de "faire disparaitre" les personnes qui deviennent "inutiles" mais on dérive vers des gros problèmes éthiques).
Par contre l'IA a d'autres avantages qui méritent d'être étudiés.

Des gens essayent d'aborder les sujets de façon "rationnelle" en ce moment pour transformer des solutions plus ou moins absurdes en bon sens.
La Science n'apporte pas toujours les bonnes réponses aux problèmes parce qu'elle ignore les sciences humaines ou l'éthique.
Pourtant il me semble qu'Asimov nous avait déjà prévenu que cette méthode ne fonctionnait pas.
2  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 15/11/2023 à 15:30
Mon avis est double. D'un coté, je pense qu'il est important et urgent de légiférer, d'un autre, qu'il est nécessaire de préserver les acteurs moindres dans leurs recherches au niveau de l'IA.
Je pense que la législation devrait mettre des barrières aux grandes entreprises afin de ne pas leur laisser le champ libre et de tuer dans l'œuf toute concurrence, comme ils savent si bien le faire.

Mais gageons que le poids des billets de ces cadors, soit plus audible que toutes les objections raisonnables émises par un groupe moins... pourvus de liasses.
1  0 
Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 17/11/2023 à 8:58
J'imagine les débats le jour où l'Homme à domestiqué le Feu...

Réguler l'IA comme l'entendent les politicards et les bien-pensants revient à pratiquer une stérilisation intellectuelle. Ce n'est pas parce que de plus en plus d'utilisateurs de l'informatique ne sont pas capables d'additionner 1 et 1 qu'il faut priver ceux qui savent que ça fait 10 de poursuivre les développements les plus prometteurs de ces derniers temps.

Les catastrophistes qui prédisent que mon Raspberry Pi tournant Llama va déclencher la fin du monde sont pathétiques, et dangereux, car ils offrent une occasion aux sempiternels protecteurs des populations une magnifique occasion de tenter encore une fois de prouver leur utilité.

Les travaux de Yann LeCun visant à contextualiser les données des LLMs sont prometteurs et pourraient aboutir à instiller un brin d'intelligence dans ces systèmes, qui sont pour le moment d'une totale indigence dès lors qu'on tente de les extraire de le leur cadre d'entraînement. Mais sur le fond, observez vous, voyez comment le vivant est fabriqué, évaluez les flux d'informations reçu en permanence par notre système nerveux central et comparez ces volumes à ceux que reçoit une système d'IA dans son boîtier...

Si nous ne voulons pas souffrir de l'émergence de l'IA au sens général, il faut que nous nous formions à son usage, que nous en comprenions les bases de fonctionnement et puissions en tirer parti. Nous devons aussi en mesurer les limites, savoir d'où ça vient. Nous devons en quelque sorte (re)devenir intelligents et cesser de sauter sur chaque superstition qui passe par là.
En bref, nous devons prouver que nous restons plus aptes que n'importe laquelle de nos créa-tion-tures (voilà t'y pas que je m'y mets aussi !). Nous priver d'un bulldozer nous empêchera de construire les routes dont nous aurons besoin dans le futur.
1  0 
Avatar de pierre-y
Membre chevronné https://www.developpez.com
Le 14/02/2024 à 13:03
L'UE c'est vraimment le bal de la corruption. Quand je pense que la parlementaire grec qui c'était fait choper a recevoir du blé du Qatar a put tranquillement reprendre son poste comme si de rien n'était... C'est vraiment a vomir.
2  1 
Avatar de Eye_Py_Ros
Nouveau membre du Club https://www.developpez.com
Le 10/04/2024 à 15:18
> Pensez-vous que cette étude est crédible ou pertinente ?
> Quel est votre avis sur le sujet ?

Que dire que dire, un petit essai improvisé.
Pour commencer cette étude à un objectif assez clair et malsain, contrer le bashing de l'IA qui pollue à cause de sa consommation excessive en ressource en ce qui concerne sa création / entraînement / formation.
Je dirais que l'étude est remplie de biais, mais aussi qu'elle souligne un sujet mortifère et dont les philosophes devraient se saisir.

Pour commencer en ce qui concerne les biais, les graphiques sont ultras simpliste et ne prenne pas en compte les ressources nécessaires pour l'entraînement des AI ni même les ressources consommées pour concevoir le hardware.
De la production de silicium au GPU en passant par l'humain qui a conçu le GPU à la chaîne d'assemblage jusqu'au data center où elle est en fonction à déjà consommé plusieurs années CO2 d'une ville humaine.

La conclusion stéréotypée que l'on peut faire de ce genre d'étude. Au mon dieu, un humain, ça respire ça émet du CO2, un caillou alimenté avec de l'Énergie pure sa ""n'émet pas"" de CO2. Il faut donc remplacer toute la population humaine par des cailloux qui imite les humains.
Je tire volontairement le trait, mais c'est une pente glissante vers lequel les bobo extrêmes écolos ont tendance à prendre de vouloir éliminer le vivant sous prétexte qu'il émet du CO2. Si on suit leur logique uniquement les plantes auraient le droit de vivre puisqu’elles n'émettent pas de CO2 (dans leurs schémas de pensée) ce qui est faux et sans CO2 elles ne peuvent se développer autant... Alors si on en fait la seule source de nourriture...

Concernant les schémas on nous montre une quantité d'Énergie consommée en instantané lorsque le réseau (de neurones en cailloux) fait une génération unique, versus le pc d'un auteur allumé.
Déjà pour commencer le biais, un serveur qui fait tourner de l'IA est allumé H24, consomme rien que pour être allumé 100W et peut monter à 3000W voir plus. Le pc d'un auteur est allumé disons 6-8h et un pc portable sobre peut, disons consommer au max 25w dans un standard sobre écoresponsable. De plus un auteur peut ne pas passer toute une session d'écriture sur un pc, on peut aussi avoir des machines tablette dans le futur à base d'epaper comme écran, utiliser le stylo et la feuille.... Donc déjà la méthode de travail est un biais choisi non représentatif des "travailleurs" du secteur. Doit-on compter les repas, et la tasse de café en terrasse ?

Idem dans la création d'images, un peintre ne va pas utiliser un ordinateur de la même manière voir pas du tout, un photographe non plus et un graphiste peut faire des recherches de diverses manières. Leur activité n'est pas 100% numérique.

Coté IA, ouaaa une génération consomme peux. Sauf que qui aujourd'hui ne demande pas à l'IA plusieurs générations pour avoir un résultat un peut exploitable et qui ne passe pas un peu de temps pour intégrer la réponse...
10 générations consommeraient déjà le CO2 pour une journée de travail humain. Or il est si facile de cliquer sur généré que l'étude ne prend pas en compte le fait que cette facilité va augmenter le nombre de générations demandé et donc pour une même tache incitée à consommer plus.
Plutôt qu'un travail réfléchis, fait et plutôt droit au but, on va frénétiquement cliqué sur générer, une, deux, 10, 20, 50 fois dans la journée jusqu'à avoir un travail prémâché qu'il faudra de toute façon relire puis intégrer.

Au final une IA, est un outil qui consomme, et sa facilité d'usage poussera a consommer par ce que dans un même espace de temps on le peut.
Et si on pense éliminer complètement les humains, alors nous allons créer une société de machine qui travaillera pour des machines.
Le summum du capitalisme, nous créons du travail/ de la valeur à l'aide de machine pour qu'elle soit consommée par d'autres machines et faire tourner le capitalisme.

Nous avons des Shadock qui pompe, que nous remplaçons par des machines qui pompes pour se maintenir entre elles en vie et soutenir artificiellement le capitalisme et "sa croissance infinie" artificielle.
On va basculer d'une économie pétrodollar en data dollar.
(et il faudra mettre des humains sur des vélos pour combler le manque de pétrole pour alimenter en Énergie les machines)

Tout ceci est absurde tout comme confondre un outil et une volonté créatrice vivante.
Le côté mortifère, c'est de vouloir a tout pris évincer l'humain de la composante économique pour des raisons de coûts. De l'autre côté, ce que l'on aura sacrifié... nous fera plonger vers une économie dystopique, avec une économie parallèle qui ne sert qu'aux machines et de l'autre, des humains tout tombés dans la précarité.
Et le risque, c'est un arrêt de la créativité, un grippage de l'inventivité et d'évolution.
Où à côté d'usines fumantes, nous aurions une population qui n'a plus les moyens de consommer.
Sauf, si la réalité réajuste la situation, car non viable et qu'un mixte des deux finissent par co exister.

Ce que je dirais, c'est que ce genre d'étude envoie un signal malsain coté sociétal, poussant des résonnements inachevés polarisant des questions légitimes en réponse absurde. Plantant les graines d'idéologie néfaste pour une société.

Nous sommes nés trop tard pour explorer les continents, trop tôt pour explorer Mars, mais dans l'époque de l'avènement de l'IA et d'un grand bouleversement économique et sociétal mondiaux en perspective que l'on veuille ou non.
L'avenir dépend de ce qui est en train de s'écrire, des luttes et intérêts de certains. De l'éducation ou du manque des masses en vers ce type d'enjeux, et si nous finissons tout droits vers un avenir dystopique d'une dictature mondiale et d'une misère qui fera régresser l'humanité ou si nous deviendrons tous lucide sur le sujet. comme le plat réchauffé que les mails allaient tuer le métier de postier. Que les livres numériques allaient faire disparaître les imprimeurs ect, ect.

Tous sa pour dire (sans se méprendre, ça reste intéressant que le site nous permette de faire une veille techno) y en a marre de ce genre d'étude de lobbying pondu par des cabinets com , la seule chose que ça génère c'est de la méfiance en vers les études et une perte de crédibilité du peuple en vers toutes analyses et réflexion.
Remplaçons les cabinets de com par de l'IA, peut être que l'on aura moins de mensonge comme ça.
1  0 
Avatar de fodger
Membre confirmé https://www.developpez.com
Le 15/11/2023 à 15:18
C'est d'une telle évidence ...
0  0