IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les Big Tech (GAFAM) veulent réglementer l'IA, mais les autres entrepreneurs sont sceptiques
Selon eux leur réelle volonté serait juste de geler le marché de l'IA pour conserver leur monopole

Le , par Jade Emy

5PARTAGES

6  0 
Après des mois de réunions et de discussions de haut niveau, les responsables gouvernementaux et les dirigeants des grandes entreprises technologiques sont tombés d'accord sur un point concernant l'intelligence artificielle : Cette technologie, qui pourrait changer le monde, a besoin de règles de base. Mais de nombreux acteurs de la Silicon Valley sont sceptiques.

Un groupe de plus en plus important de grands noms de la technologie - notamment des investisseurs en capital-risque influents, des PDG de sociétés de logiciels de taille moyenne et des partisans de la technologie libre - s'insurge, affirmant que les lois relatives à l'intelligence artificielle pourraient étouffer la concurrence dans un nouveau domaine vital. Pour ces dissidents, la volonté des plus grands acteurs de l'IA, tels que Google, Microsoft et OpenAI, le fabricant de ChatGPT, d'adopter une réglementation n'est qu'un stratagème cynique de la part de ces entreprises pour consolider leurs avantages en tant que leaders actuels, en tirant essentiellement l'échelle vers le haut derrière elles.

Les inquiétudes de ces leaders technologiques ont pris de l'ampleur la semaine dernière, lorsque le président Biden a signé un décret établissant un plan pour que le gouvernement élabore des lignes directrices en matière de test et d'approbation des modèles d'IA - les algorithmes sous-jacents qui alimentent les outils d'IA "génératifs" tels que les chatbots et les faiseurs d'images.


"Nous n'en sommes qu'au tout début de l'IA générative, et il est impératif que les gouvernements ne désignent pas préventivement les gagnants et ne ferment pas la porte à la concurrence en adoptant des réglementations onéreuses que seules les plus grandes entreprises peuvent satisfaire", a déclaré Garry Tan, directeur de Y Combinator, un incubateur de start-up basé à San Francisco qui a aidé des entreprises telles qu'Airbnb et DoorDash à se développer lorsqu'elles n'en étaient qu'à leurs débuts.

Le débat actuel n'a pas suffisamment intégré les voix des petites entreprises, a déclaré Tan, ce qui, selon lui, est essentiel pour stimuler la concurrence et trouver les moyens les plus sûrs d'exploiter l'IA. Des entreprises comme Anthropic, une start-up influente dans le domaine de l'IA, et OpenAI sont étroitement liées aux grandes entreprises technologiques, dont elles ont absorbé d'énormes quantités d'investissements.

"Elles ne parlent pas au nom de la grande majorité des personnes qui ont contribué à ce secteur", a déclaré Martin Casado, associé général de la société de capital-risque Andreessen Horowitz, qui a investi très tôt dans Facebook, Slack et Lyft. La plupart des ingénieurs et des entrepreneurs en IA ont suivi les discussions réglementaires de loin, se concentrant sur leurs entreprises au lieu d'essayer de faire pression sur les politiciens, a-t-il ajouté. "Beaucoup de gens veulent construire, ce sont des innovateurs, ils constituent la majorité silencieuse", a déclaré Casado.

Le décret a montré à ces personnes que la réglementation pourrait intervenir plus tôt que prévu. La société de capital-risque de Casado a envoyé une lettre à Biden pour lui faire part de ses préoccupations. Cette lettre a été signée par d'éminents dirigeants de start-up spécialisées dans l'IA, dont le PDG de Replit, Amjad Masad, et Arthur Mensch de Mistral, ainsi que par des leaders technologiques plus établis, comme le PDG de la société de commerce électronique Shopify, Tobi Lutke, qui avait tweeté "la réglementation de l'IA est une très mauvaise idée" après l'annonce du décret.

Source : WashingtonPost

Et vous ?

Pensez-vous que les préoccupations de cette "majorité silencieuse" sont crédibles ou pertinentes ?
Quel est votre avis sur le sujet ?

Voir aussi :

Le projet de législation européenne sur l'intelligence artificielle mettrait en péril la compétitivité et la souveraineté technologique de l'Europe Selon plus de 160 dirigeants d'entreprises

Le PDG d'OpenAI estime qu'il est possible de se tromper dans la réglementation mais qu'il ne faut pas la craindre. La réglementation n'a pas été un bien absolu, mais elle a été bénéfique, ajoute-t-il

Elon Musk se dit un fervent défenseur de la réglementation de l'IA Mais ses solutions vagues n'impressionnent pas

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 15/11/2023 à 15:30
Mon avis est double. D'un coté, je pense qu'il est important et urgent de légiférer, d'un autre, qu'il est nécessaire de préserver les acteurs moindres dans leurs recherches au niveau de l'IA.
Je pense que la législation devrait mettre des barrières aux grandes entreprises afin de ne pas leur laisser le champ libre et de tuer dans l'œuf toute concurrence, comme ils savent si bien le faire.

Mais gageons que le poids des billets de ces cadors, soit plus audible que toutes les objections raisonnables émises par un groupe moins... pourvus de liasses.
1  0 
Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 17/11/2023 à 8:58
J'imagine les débats le jour où l'Homme à domestiqué le Feu...

Réguler l'IA comme l'entendent les politicards et les bien-pensants revient à pratiquer une stérilisation intellectuelle. Ce n'est pas parce que de plus en plus d'utilisateurs de l'informatique ne sont pas capables d'additionner 1 et 1 qu'il faut priver ceux qui savent que ça fait 10 de poursuivre les développements les plus prometteurs de ces derniers temps.

Les catastrophistes qui prédisent que mon Raspberry Pi tournant Llama va déclencher la fin du monde sont pathétiques, et dangereux, car ils offrent une occasion aux sempiternels protecteurs des populations une magnifique occasion de tenter encore une fois de prouver leur utilité.

Les travaux de Yann LeCun visant à contextualiser les données des LLMs sont prometteurs et pourraient aboutir à instiller un brin d'intelligence dans ces systèmes, qui sont pour le moment d'une totale indigence dès lors qu'on tente de les extraire de le leur cadre d'entraînement. Mais sur le fond, observez vous, voyez comment le vivant est fabriqué, évaluez les flux d'informations reçu en permanence par notre système nerveux central et comparez ces volumes à ceux que reçoit une système d'IA dans son boîtier...

Si nous ne voulons pas souffrir de l'émergence de l'IA au sens général, il faut que nous nous formions à son usage, que nous en comprenions les bases de fonctionnement et puissions en tirer parti. Nous devons aussi en mesurer les limites, savoir d'où ça vient. Nous devons en quelque sorte (re)devenir intelligents et cesser de sauter sur chaque superstition qui passe par là.
En bref, nous devons prouver que nous restons plus aptes que n'importe laquelle de nos créa-tion-tures (voilà t'y pas que je m'y mets aussi !). Nous priver d'un bulldozer nous empêchera de construire les routes dont nous aurons besoin dans le futur.
1  0 
Avatar de fodger
Membre confirmé https://www.developpez.com
Le 15/11/2023 à 15:18
C'est d'une telle évidence ...
0  0