IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les Big Tech (GAFAM) veulent réglementer l'IA, mais les autres entrepreneurs sont sceptiques
Selon eux leur réelle volonté serait juste de geler le marché de l'IA pour conserver leur monopole

Le , par Jade Emy

5PARTAGES

6  0 
Après des mois de réunions et de discussions de haut niveau, les responsables gouvernementaux et les dirigeants des grandes entreprises technologiques sont tombés d'accord sur un point concernant l'intelligence artificielle : Cette technologie, qui pourrait changer le monde, a besoin de règles de base. Mais de nombreux acteurs de la Silicon Valley sont sceptiques.

Un groupe de plus en plus important de grands noms de la technologie - notamment des investisseurs en capital-risque influents, des PDG de sociétés de logiciels de taille moyenne et des partisans de la technologie libre - s'insurge, affirmant que les lois relatives à l'intelligence artificielle pourraient étouffer la concurrence dans un nouveau domaine vital. Pour ces dissidents, la volonté des plus grands acteurs de l'IA, tels que Google, Microsoft et OpenAI, le fabricant de ChatGPT, d'adopter une réglementation n'est qu'un stratagème cynique de la part de ces entreprises pour consolider leurs avantages en tant que leaders actuels, en tirant essentiellement l'échelle vers le haut derrière elles.

Les inquiétudes de ces leaders technologiques ont pris de l'ampleur la semaine dernière, lorsque le président Biden a signé un décret établissant un plan pour que le gouvernement élabore des lignes directrices en matière de test et d'approbation des modèles d'IA - les algorithmes sous-jacents qui alimentent les outils d'IA "génératifs" tels que les chatbots et les faiseurs d'images.


"Nous n'en sommes qu'au tout début de l'IA générative, et il est impératif que les gouvernements ne désignent pas préventivement les gagnants et ne ferment pas la porte à la concurrence en adoptant des réglementations onéreuses que seules les plus grandes entreprises peuvent satisfaire", a déclaré Garry Tan, directeur de Y Combinator, un incubateur de start-up basé à San Francisco qui a aidé des entreprises telles qu'Airbnb et DoorDash à se développer lorsqu'elles n'en étaient qu'à leurs débuts.

Le débat actuel n'a pas suffisamment intégré les voix des petites entreprises, a déclaré Tan, ce qui, selon lui, est essentiel pour stimuler la concurrence et trouver les moyens les plus sûrs d'exploiter l'IA. Des entreprises comme Anthropic, une start-up influente dans le domaine de l'IA, et OpenAI sont étroitement liées aux grandes entreprises technologiques, dont elles ont absorbé d'énormes quantités d'investissements.

"Elles ne parlent pas au nom de la grande majorité des personnes qui ont contribué à ce secteur", a déclaré Martin Casado, associé général de la société de capital-risque Andreessen Horowitz, qui a investi très tôt dans Facebook, Slack et Lyft. La plupart des ingénieurs et des entrepreneurs en IA ont suivi les discussions réglementaires de loin, se concentrant sur leurs entreprises au lieu d'essayer de faire pression sur les politiciens, a-t-il ajouté. "Beaucoup de gens veulent construire, ce sont des innovateurs, ils constituent la majorité silencieuse", a déclaré Casado.

Le décret a montré à ces personnes que la réglementation pourrait intervenir plus tôt que prévu. La société de capital-risque de Casado a envoyé une lettre à Biden pour lui faire part de ses préoccupations. Cette lettre a été signée par d'éminents dirigeants de start-up spécialisées dans l'IA, dont le PDG de Replit, Amjad Masad, et Arthur Mensch de Mistral, ainsi que par des leaders technologiques plus établis, comme le PDG de la société de commerce électronique Shopify, Tobi Lutke, qui avait tweeté "la réglementation de l'IA est une très mauvaise idée" après l'annonce du décret.

Source : WashingtonPost

Et vous ?

Pensez-vous que les préoccupations de cette "majorité silencieuse" sont crédibles ou pertinentes ?
Quel est votre avis sur le sujet ?

Voir aussi :

Le projet de législation européenne sur l'intelligence artificielle mettrait en péril la compétitivité et la souveraineté technologique de l'Europe Selon plus de 160 dirigeants d'entreprises

Le PDG d'OpenAI estime qu'il est possible de se tromper dans la réglementation mais qu'il ne faut pas la craindre. La réglementation n'a pas été un bien absolu, mais elle a été bénéfique, ajoute-t-il

Elon Musk se dit un fervent défenseur de la réglementation de l'IA Mais ses solutions vagues n'impressionnent pas

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OrthodoxWindows
Membre émérite https://www.developpez.com
Le 07/02/2024 à 22:16
Encore une étude de greenwashing
4  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2024 à 11:22
Et comme pour le 99,9% des résolutions de l'ONU, strictement personne n'en tiendra compte!
4  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 10/04/2024 à 8:28
Je n'ai pas très bien compris ce qui était mesuré pour définir que l'IA émet moins de CO2 qu'un humain pour écrire une page.

Est-ce que l'empreinte carbone des datas center servant à l'IA pour produire sa page est comptée ou non ? Si c'est juste l'empreinte carbone pour l'écriture finale, c'est-à-dire le "pouillème" final, alors l'étude est biaisée.
4  0 
Avatar de mach1974
Membre averti https://www.developpez.com
Le 13/12/2023 à 16:20
Bonjour,
Un peu de rationalisation que diable. On reste sur de l'ia qui calcule les corrélations et en tire des arbres causaux sans décrire les mécaniques même avec LIME et SHAPE, alors que l'analyse grammaticale avec les COI et COD permet de déterminer le sujet et le complément , ce qui permet une logique de prédicat avec le respect des 3 lois d'ASIMOV. C'est un cauchemar. On va voir revenir le temps des sorciers même si Athur C Clarke parle de magie comme la techno qui disparaît. On va élever l'ordinateur au rang de Dieu dans la prochaine étape . C'est bien la peine de faire du modèle checking dans la norme ISO179 pour l'aéronautique ou dans le ferroviaire ....
2  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 10/04/2024 à 8:01
Citation Envoyé par Jade Emy Voir le message
Il est essentiel de se pencher sur le type d'impact environnemental que l'IA peut finir par avoir. Cependant, il s'avère que l'IA pourrait en fait produire moins d'émissions de carbone que les humains, ce qui la rendrait plus durable. L'IA émet des centaines de fois moins de gaz à effet de serre que l'homme lorsqu'il s'agit d'écrire et de créer des images.
C'est une analyse intéressante mais est ce que ça veut dire qu'utiliser une IA émet moins de carbone qu'utiliser une personne?
Non, pour une raison simple:
Quand la personne travaille et pas l'IA, l'IA n'émet rien
Quand l'IA travaille et pas la personne, la personne émet toujours.
Donc il faudrait comparer le surplus d'émission de la personne quand elle travaille à l'IA.
Les autres facteurs sont nombreux :
L'IA produit (probablement) peu de carbone quand elle travaille parce qu'elle est plus rapide que l'homme mais combien émet son apprentissage?
L'IA nécessite une revue de son travail plus importante que la personne donc combien émet la différence de revue?
Combien d'IA différente faut il pour remplacer toutes les taches d'une personne?
Et je n'ai pas encore parlé de l'apport social d'une personne...

Pensez-vous que cette étude est crédible ou pertinente ?
L'étude en tant que telle à l'air crédible (faite de façon honnête et rigoureuse) par contre le but de celle ci me parait beaucoup moins pertinent.
Quelle conclusion tirer? Qu'il faut faire travailler les IA plutôt que les personnes pour l'édition? Ce n'est pas ce que disent les chercheurs, c'est pourtant ce que nous lisons.
Qui a financer cette étude? Dans quel but? Avec ces réponses nous aurons peut être une clarification de sa pertinence.
On sait que l'un des auteur détient des actions chez NVIDIA mais je n'ai rien trouvé chez le financeur.
Quel est votre avis sur le sujet ?
L'IA n'a rien d'écologique parce qu'elle ajoute de la production de carbone à la production humaine, attaquer la question par cet angle est absurde. (A moins que l'on décide de "faire disparaitre" les personnes qui deviennent "inutiles" mais on dérive vers des gros problèmes éthiques).
Par contre l'IA a d'autres avantages qui méritent d'être étudiés.

Des gens essayent d'aborder les sujets de façon "rationnelle" en ce moment pour transformer des solutions plus ou moins absurdes en bon sens.
La Science n'apporte pas toujours les bonnes réponses aux problèmes parce qu'elle ignore les sciences humaines ou l'éthique.
Pourtant il me semble qu'Asimov nous avait déjà prévenu que cette méthode ne fonctionnait pas.
2  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 15/11/2023 à 15:30
Mon avis est double. D'un coté, je pense qu'il est important et urgent de légiférer, d'un autre, qu'il est nécessaire de préserver les acteurs moindres dans leurs recherches au niveau de l'IA.
Je pense que la législation devrait mettre des barrières aux grandes entreprises afin de ne pas leur laisser le champ libre et de tuer dans l'œuf toute concurrence, comme ils savent si bien le faire.

Mais gageons que le poids des billets de ces cadors, soit plus audible que toutes les objections raisonnables émises par un groupe moins... pourvus de liasses.
1  0 
Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 17/11/2023 à 8:58
J'imagine les débats le jour où l'Homme à domestiqué le Feu...

Réguler l'IA comme l'entendent les politicards et les bien-pensants revient à pratiquer une stérilisation intellectuelle. Ce n'est pas parce que de plus en plus d'utilisateurs de l'informatique ne sont pas capables d'additionner 1 et 1 qu'il faut priver ceux qui savent que ça fait 10 de poursuivre les développements les plus prometteurs de ces derniers temps.

Les catastrophistes qui prédisent que mon Raspberry Pi tournant Llama va déclencher la fin du monde sont pathétiques, et dangereux, car ils offrent une occasion aux sempiternels protecteurs des populations une magnifique occasion de tenter encore une fois de prouver leur utilité.

Les travaux de Yann LeCun visant à contextualiser les données des LLMs sont prometteurs et pourraient aboutir à instiller un brin d'intelligence dans ces systèmes, qui sont pour le moment d'une totale indigence dès lors qu'on tente de les extraire de le leur cadre d'entraînement. Mais sur le fond, observez vous, voyez comment le vivant est fabriqué, évaluez les flux d'informations reçu en permanence par notre système nerveux central et comparez ces volumes à ceux que reçoit une système d'IA dans son boîtier...

Si nous ne voulons pas souffrir de l'émergence de l'IA au sens général, il faut que nous nous formions à son usage, que nous en comprenions les bases de fonctionnement et puissions en tirer parti. Nous devons aussi en mesurer les limites, savoir d'où ça vient. Nous devons en quelque sorte (re)devenir intelligents et cesser de sauter sur chaque superstition qui passe par là.
En bref, nous devons prouver que nous restons plus aptes que n'importe laquelle de nos créa-tion-tures (voilà t'y pas que je m'y mets aussi !). Nous priver d'un bulldozer nous empêchera de construire les routes dont nous aurons besoin dans le futur.
1  0 
Avatar de pierre-y
Membre chevronné https://www.developpez.com
Le 14/02/2024 à 13:03
L'UE c'est vraimment le bal de la corruption. Quand je pense que la parlementaire grec qui c'était fait choper a recevoir du blé du Qatar a put tranquillement reprendre son poste comme si de rien n'était... C'est vraiment a vomir.
2  1 
Avatar de Eye_Py_Ros
Nouveau membre du Club https://www.developpez.com
Le 10/04/2024 à 15:18
> Pensez-vous que cette étude est crédible ou pertinente ?
> Quel est votre avis sur le sujet ?

Que dire que dire, un petit essai improvisé.
Pour commencer cette étude à un objectif assez clair et malsain, contrer le bashing de l'IA qui pollue à cause de sa consommation excessive en ressource en ce qui concerne sa création / entraînement / formation.
Je dirais que l'étude est remplie de biais, mais aussi qu'elle souligne un sujet mortifère et dont les philosophes devraient se saisir.

Pour commencer en ce qui concerne les biais, les graphiques sont ultras simpliste et ne prenne pas en compte les ressources nécessaires pour l'entraînement des AI ni même les ressources consommées pour concevoir le hardware.
De la production de silicium au GPU en passant par l'humain qui a conçu le GPU à la chaîne d'assemblage jusqu'au data center où elle est en fonction à déjà consommé plusieurs années CO2 d'une ville humaine.

La conclusion stéréotypée que l'on peut faire de ce genre d'étude. Au mon dieu, un humain, ça respire ça émet du CO2, un caillou alimenté avec de l'Énergie pure sa ""n'émet pas"" de CO2. Il faut donc remplacer toute la population humaine par des cailloux qui imite les humains.
Je tire volontairement le trait, mais c'est une pente glissante vers lequel les bobo extrêmes écolos ont tendance à prendre de vouloir éliminer le vivant sous prétexte qu'il émet du CO2. Si on suit leur logique uniquement les plantes auraient le droit de vivre puisqu’elles n'émettent pas de CO2 (dans leurs schémas de pensée) ce qui est faux et sans CO2 elles ne peuvent se développer autant... Alors si on en fait la seule source de nourriture...

Concernant les schémas on nous montre une quantité d'Énergie consommée en instantané lorsque le réseau (de neurones en cailloux) fait une génération unique, versus le pc d'un auteur allumé.
Déjà pour commencer le biais, un serveur qui fait tourner de l'IA est allumé H24, consomme rien que pour être allumé 100W et peut monter à 3000W voir plus. Le pc d'un auteur est allumé disons 6-8h et un pc portable sobre peut, disons consommer au max 25w dans un standard sobre écoresponsable. De plus un auteur peut ne pas passer toute une session d'écriture sur un pc, on peut aussi avoir des machines tablette dans le futur à base d'epaper comme écran, utiliser le stylo et la feuille.... Donc déjà la méthode de travail est un biais choisi non représentatif des "travailleurs" du secteur. Doit-on compter les repas, et la tasse de café en terrasse ?

Idem dans la création d'images, un peintre ne va pas utiliser un ordinateur de la même manière voir pas du tout, un photographe non plus et un graphiste peut faire des recherches de diverses manières. Leur activité n'est pas 100% numérique.

Coté IA, ouaaa une génération consomme peux. Sauf que qui aujourd'hui ne demande pas à l'IA plusieurs générations pour avoir un résultat un peut exploitable et qui ne passe pas un peu de temps pour intégrer la réponse...
10 générations consommeraient déjà le CO2 pour une journée de travail humain. Or il est si facile de cliquer sur généré que l'étude ne prend pas en compte le fait que cette facilité va augmenter le nombre de générations demandé et donc pour une même tache incitée à consommer plus.
Plutôt qu'un travail réfléchis, fait et plutôt droit au but, on va frénétiquement cliqué sur générer, une, deux, 10, 20, 50 fois dans la journée jusqu'à avoir un travail prémâché qu'il faudra de toute façon relire puis intégrer.

Au final une IA, est un outil qui consomme, et sa facilité d'usage poussera a consommer par ce que dans un même espace de temps on le peut.
Et si on pense éliminer complètement les humains, alors nous allons créer une société de machine qui travaillera pour des machines.
Le summum du capitalisme, nous créons du travail/ de la valeur à l'aide de machine pour qu'elle soit consommée par d'autres machines et faire tourner le capitalisme.

Nous avons des Shadock qui pompe, que nous remplaçons par des machines qui pompes pour se maintenir entre elles en vie et soutenir artificiellement le capitalisme et "sa croissance infinie" artificielle.
On va basculer d'une économie pétrodollar en data dollar.
(et il faudra mettre des humains sur des vélos pour combler le manque de pétrole pour alimenter en Énergie les machines)

Tout ceci est absurde tout comme confondre un outil et une volonté créatrice vivante.
Le côté mortifère, c'est de vouloir a tout pris évincer l'humain de la composante économique pour des raisons de coûts. De l'autre côté, ce que l'on aura sacrifié... nous fera plonger vers une économie dystopique, avec une économie parallèle qui ne sert qu'aux machines et de l'autre, des humains tout tombés dans la précarité.
Et le risque, c'est un arrêt de la créativité, un grippage de l'inventivité et d'évolution.
Où à côté d'usines fumantes, nous aurions une population qui n'a plus les moyens de consommer.
Sauf, si la réalité réajuste la situation, car non viable et qu'un mixte des deux finissent par co exister.

Ce que je dirais, c'est que ce genre d'étude envoie un signal malsain coté sociétal, poussant des résonnements inachevés polarisant des questions légitimes en réponse absurde. Plantant les graines d'idéologie néfaste pour une société.

Nous sommes nés trop tard pour explorer les continents, trop tôt pour explorer Mars, mais dans l'époque de l'avènement de l'IA et d'un grand bouleversement économique et sociétal mondiaux en perspective que l'on veuille ou non.
L'avenir dépend de ce qui est en train de s'écrire, des luttes et intérêts de certains. De l'éducation ou du manque des masses en vers ce type d'enjeux, et si nous finissons tout droits vers un avenir dystopique d'une dictature mondiale et d'une misère qui fera régresser l'humanité ou si nous deviendrons tous lucide sur le sujet. comme le plat réchauffé que les mails allaient tuer le métier de postier. Que les livres numériques allaient faire disparaître les imprimeurs ect, ect.

Tous sa pour dire (sans se méprendre, ça reste intéressant que le site nous permette de faire une veille techno) y en a marre de ce genre d'étude de lobbying pondu par des cabinets com , la seule chose que ça génère c'est de la méfiance en vers les études et une perte de crédibilité du peuple en vers toutes analyses et réflexion.
Remplaçons les cabinets de com par de l'IA, peut être que l'on aura moins de mensonge comme ça.
1  0 
Avatar de
https://www.developpez.com
Le 15/11/2023 à 15:18
C'est d'une telle évidence ...
0  0