IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

xAI, la société d'intelligence artificielle fondée par Elon Musk, va construire le plus grand supercalculateur du monde à Memphis

Le , par Jade Emy

23PARTAGES

6  0 
xAI construira le plus grand superordinateur du monde dans la ville de Memphis, selon le président-directeur général de la Greater Memphis Chamber, , qui en a fait l'annonce lors d'une conférence de presse.

X.AI Corp, connue sous le nom de xAI, est une startup américaine travaillant dans le domaine de l'intelligence artificielle (IA). Fondée par Elon Musk en mars 2023, son objectif déclaré est de "comprendre la véritable nature de l'univers". Mais l'un de ses objectifs immédiats est de créer une IA capable d'un raisonnement mathématique avancé, ce qui n'est pas le cas des modèles actuels. Elle est dirigée par Elon Musk, qui est également à la tête de Tesla et de SpaceX. Sur le site web de xAI, l'entreprise déclare qu'elle travaille à "construire une intelligence artificielle pour accélérer la découverte scientifique humaine".

Elon Musk veut construire un projet de plusieurs milliards de dollars à Memphis. "Je suis heureux d'annoncer que la Gigafactory of Compute de xAI, le plus grand superordinateur du monde, sera installé à Memphis, dans le Tennessee", a déclaré Ted Townsend. La foule a applaudi à l'annonce de l'implantation d'une nouvelle grande entreprise à Memphis, un pilier de la ville. "J'attendais ce moment", a déclaré M. Townsend.


Selon M. Townsend, il s'agit à lui seul du plus important investissement en capital de plusieurs milliards de dollars réalisé par une nouvelle entreprise sur le marché dans l'histoire de Memphis. "En moins de 90 jours, l'équipe de développement économique de la chambre de commerce a agi à la vitesse de l'éclair pour s'assurer que Memphis serait en mesure d'être sélectionnée par xAI", a déclaré M. Townsend. "Il faut des données, des scientifiques, des ingénieurs en informatique et un talent créatif de premier plan dans le domaine de l'intelligence artificielle."

M. Townsend a indiqué que la Gigafactory of Compute de xAI ouvrirait ses portes dans le courant de l'année, mais qu'en raison de "problèmes de sécurité au niveau mondial", il ne pouvait pas confirmer l'emplacement de cette installation. Selon les sources du Memphis Business Journal, elle sera située dans les anciennes installations d'Electrolux au 3231 Paul R. Lowry Road dans le sud-ouest de Memphis. "Je ne suis pas en mesure d'indiquer le lieu pour des raisons de sécurité globale", a déclaré M. Townsend. Toutefois, lors de son discours, M. Townsend a mentionné Phoenix Investors, qui possède cinq propriétés à Memphis, dont l'ancien bâtiment d'Electrolux.

Malgré l'importance de l'investissement, les sources affirment que le nombre d'emplois créés dans la région ne serait que de quelques centaines. "Memphis est une ville d'innovateurs, il n'est donc pas surprenant que ceux qui cherchent à changer le monde s'y sentent chez eux", a déclaré le maire de Memphis, Paul Young. "C'est ici que les choses se font. Nous avons d'excellents partenaires à la Greater Memphis Chamber et à MLGW qui étaient prêts à faire avancer les choses. Nous disposions d'un site idéal, propice aux investissements. Et nous avions le pouvoir de nos collaborateurs qui ont créé des processus nouveaux et innovants pour suivre le rythme nécessaire à l'aboutissement de ce projet de transformation".

Mais qu'est-ce qu'un superordinateur exactement, et à quoi servirait-il ? "Pour alimenter et financer l'espace IA pour toutes ses entreprises [Musk] en premier lieu, évidemment avec Tesla et SpaceX", a expliqué Townsend. "Si vous pouvez imaginer la puissance de calcul nécessaire pour placer des humains à la surface de Mars, cela se produira ici, à Memphis."

William Gropp, directeur du National Center for Supercomputing Applications de l'université de l'Illion Urbana-Champaign, donne plus de détails sur ce qu'est un superordinateur et sur ses capacités. "Ils [les superordinateurs] sont vraiment un instrument universel qui peut être utilisé pour presque tout", a déclaré M. Gropp. "Les superordinateurs sont construits à partir des mêmes ordinateurs que ceux que l'on trouve sur les ordinateurs portables ou les téléphones... Ils sont simplement très nombreux."

Les habitants de Memphis espèrent qu'il apportera plus d'attention et d'opportunités à leur communauté. "Memphis doit être la plaque tournante de la région en matière de technologie, et si Elon Musk l'amène ici, cela va créer des emplois", a déclaré Brodrick Stigall. "Cela va créer des emplois dans le domaine de la technologie. Et cela pourrait créer des partenariats avec les différentes écoles. L'université de Memphis, Rhodes College, Christian Brothers pourraient utiliser ce superordinateur."

Certains espèrent que Musk réinvestira dans une ville qui pourrait accueillir son invention d'IA générative. "J'aimerais vraiment qu'au lieu de venir ici et de profiter du fait qu'il est facile d'y faire de l'argent, Musk investisse aussi dans la communauté. Si vous voulez profiter de la communauté, réinvestissez aussi dans la communauté", a déclaré Syd McKissack.


Musk a annoncé la création de xAi en juillet de l'année dernière et a lancé son chatbot d'intelligence artificielle appelé « Grok » en novembre. Au début de l'année, xAi a indiqué que les investisseurs avaient contribué à hauteur de 6 milliards de dollars au développement de l'intelligence artificielle de l'entreprise. Ce financement devrait aider l'entreprise de Musk à rivaliser dans la course au développement de l'intelligence artificielle avec Microsoft et Open AI, qui a créé ChatGPT.

"Notre chambre est conçue pour cela", a déclaré M. Townsend. "En moins de trois semaines, l'équipe de développement économique de la chambre a fait preuve d'une coordination remarquable, apportant rapidement des solutions et ralliant des partenaires plus vite que n'importe quelle autre communauté. Depuis les trois premières semaines jusqu'à aujourd'hui, Memphis est apparue comme un nœud mondial où la vitesse rencontre la puissance, ce qui constitue des attributs attrayants pour l'équipe de xAI."

D'autres sont sceptiques après les récents licenciements chez Tesla et après que l'autorité de développement du comté de Fulton, à Atlanta, a offert à Musk un allègement fiscal important au début de l'année, pour un montant d'environ 10 millions de dollars.

Sarah Houston, directrice exécutive de Protect our Aquifer, affirme que la Gigafactory of Compute de xAI a besoin de 1 million de gallons d'eau de l'aquifère par jour pour fonctionner. Selon elle, si elle est construite sur l'ancien site d'Electrolux, l'usine devra s'engager à utiliser des eaux usées recyclées provenant de l'usine de traitement des eaux de la ville située à proximité. Dans le cas contraire, ce pompage supplémentaire pourrait mettre à rude épreuve le champ de captage Davis, qui est peu profond.

L'Economic Development Growth Engine for Memphis and Shelby County, la Tennessee Valley Authority et d'autres instances dirigeantes auront le dernier mot quant à l'implantation de xAI à Memphis et à la possibilité de bénéficier d'allègements fiscaux dans le cadre de cet accord.

La Tennessee Valley Authority déclare :

La création d'emplois et d'investissements locaux dans notre région est au cœur de la mission de TVA. Memphis est un endroit où il fait bon vivre, travailler et élever une famille, et nous sommes ravis de voir de grandes entreprises reconnaître les opportunités de développement économique qu'offre la ville.

Nous avons travaillé avec MLGW et xAI, alors que nous continuons à examiner les détails de leur proposition et les besoins en matière de demande d'électricité. Ces discussions portent notamment sur l'optimisation de la réponse à la demande d'électricité, en soutenant la réduction de la charge afin d'assurer la flexibilité du système lorsque la demande de pointe est élevée.

Alors que l'ouest du Tennessee et l'ensemble de la région continuent de se développer, notre engagement est de nous assurer que nous continuons à fournir une énergie abordable et fiable à tous les clients.
Memphis Light, Gas and Water ajoute :

Nous sommes heureux d'avoir pu aider à catalyser cet investissement important et ce projet de transformation pour notre communauté. Plus important encore, MLGW répondra aux besoins de l'entreprise en matière de services publics sans mettre en péril notre réseau électrique ou nos ressources en eau. Pour MLGW, il est important que l'entreprise accepte de participer à un programme de réponse à la demande d'électricité. Cela signifie que lorsque la demande sur le réseau est élevée, l'entreprise réduira sa consommation, garantissant ainsi la disponibilité de l'énergie pour tous les clients.

Encore plus bénéfique pour notre communauté, nous sommes ravis que l'entreprise se joigne aux discussions dans le cadre de nos efforts continus pour accélérer la conception et la construction d'une installation d'eaux grises destinée à fournir de l'eau de refroidissement à l'entreprise, à TVA, à la station d'épuration de la ville de Memphis et à de futurs utilisateurs commerciaux et industriels. Cela permettra de réduire la demande en eau de l'aquifère.

Je suis fier de notre travail, qui a consisté à fournir des services publics pour un projet d'une telle ampleur et à le faire rapidement. La réutilisation adaptative d'un ancien espace industriel et de son infrastructure de services publics existante est exactement le type de développement économique que nous recherchons pour notre ville. Les emplois bien rémunérés, le cachet de l'hébergement du superordinateur le plus puissant du monde et les revenus supplémentaires importants que ce projet apporte à MLGW contribueront à soutenir nos efforts en matière de fiabilité et de modernisation du réseau. Ce sont autant de victoires pour notre communauté.
Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi :

La startup xAI d'Elon Musk lève 6 milliards de dollars lors d'un nouveau tour de financement de série B. L'argent servira à commercialiser les produits de xAI, dont Grok, un rival de ChatGPT, formé sur X.com

Elon Musk annonce la création de sa startup xAI dédiée à la compréhension de la nature de l'univers : énième balbutiement en téléchargement après Hyperloop, Neuralink et autres ?

Elon Musk a détourné des milliers de puces d'IA destinées à Tesla vers X pour alimenter sa concurrence avec OpenAI, mais le pivot de Tesla vers l'IA pourrait être retardé sans les puces nécessaires de Nvidia

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Artae
Membre régulier https://www.developpez.com
Le 30/08/2024 à 19:16
Il a toujours été très accessible de faire un trucage avec photoshop ou gimp, à l'époque les gens étaient bien moins informé et il y a eu peu de désinformation.

La question de la responsabilité concernant les fake news IA, n'est pas a posé du côté de l'IA, des dev, ou autres. Elle est du côté de l'utilisateur.
Quelqu'un a parfaitement le droit de créer une fausse image et de la diffuser, par contre, l'intention de tromper et de manipuler est condamnable.

Cette évolution juridique et des mentalités qui tend à rendre irresponsable les utilisateurs (citoyens) est plus qu'inquiétante pour la démocratie.
Mieux vaudrait se concentrer sur l'enseignement de l'esprit critique, que sur la censure de modèle IA ...
2  0 
Avatar de
https://www.developpez.com
Le 16/08/2024 à 8:30
Gestion des filtres : Faut il censurer la génération d'images de l'IA comme OpenAI le fait avec ChatGPT ou laisser faire comme Elon Musk le fait avec Grok 2 ? Dans quelle mesure ?
Non, simplement. Libre aux différents réseaux sociaux et autres plateformes d'adapter leurs chartes d'utilisation.

Désinformation et contenus offensants : Comment pouvons-nous garantir que Grok ne propage pas de désinformation ou de contenus offensants ?
Alors ce n'est pas Grok, une intelligence artificielle qui propage de la désinformation mais des intelligences humaines, qui utilisent l'IA
Comment faire pour que l'utilisateur d'une plateforme ne propage pas de désinformation ou de contenus offensants ? J'ai 4 potentielles solutions mais elles ne sont évidemment pas exhaustive :
  • Avec une charte d'utilisation des plateformes de partage (réseaux sociaux, forums, etc..) et les sanctions qui vont avec en cas de non-respect.
  • En intégrant des outils de détection d'IA par exemple.
  • Les Notes de la Communauté sur X/Twitter fonctionnent relativement bien. Un contexte est souvent (toujours) apporté sur les fake news, y compris les images générées par IA. Les autres réseaux devraient s'en inspirer.
  • Et le plus important, la sensibilisation : Un utilisateur sensibilisé est un pilier de la sécurité collective.


Créativité humaine : Grok peut générer du contenu, mais comment préserver la créativité individuelle face à cette automatisation ?
En continuant à créer individuellement Les bibliothécaires, journalistes et éditeurs n'ont pas disparu avec l'expansion des moteurs de recherche comme Google à l'époque. Alors je pense que tout comme avec l'arrivée de Google, l'IA fera sans doute évoluer la manière de fonctionner de certains domaine (telle que la créativité individuelle) sans pour autant la faire disparaitre. Ce n'est qu'un outil que personne n'oblige à utiliser.
2  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 16/08/2024 à 11:29
Tout cela ressemble vraiment à une panique morale... Alors que dans les faits, les conséquences seront très limités. Le seul truc qui m’effraie avec la génération d'image est le risque de désinformation avec les deepfakes. Pour le reste, l'AI générative d'image est loin d'être la plus dangereuse. On devrait (et surtout ces activistes du dimanche) surtout s’inquiéter des risques de la surveillance algorithmique.

« Toutefois, ce problème a été résolu bien avant que ChatGPT ne soit accessible au public. Il est très inquiétant de constater que n'importe qui peut payer X 4 $ pour générer des images de Micky Mouse en train d'effectuer une fusillade de masse contre des enfants »
En quoi pouvoir générer des images de Micky Mouse en train d'effectuer une fusillade de masse contre des enfants représente un danger ?? Personne ne crois que Micky Mouse est un personnage réel...
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 16/08/2024 à 11:30
Citation Envoyé par OrthodoxWindows Voir le message
Personne ne crois que Micky Mouse est un personnage réel...
Ouais mais ça ne va pas plaire à Disney.
2  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 16/08/2024 à 21:09
Citation Envoyé par Ryu2000 Voir le message
Ouais mais ça ne va pas plaire à Disney.
Certes

D'ailleurs quand on y pense, les grosses multinationales de gestion des droits d'auteur (de Disney à Warner en passant par Sony) sont en train de se faire vraiment avoir ; pendant des années, on nous a fait ch*** avec le strict respect du droit d'auteur, désormais ces même pouvoir publiques deviennent très laxistes avec l'IA. La différence est que ce n'a jamais été des multinationales du numérique qui piratais du contenu... Alors qu'avec l'IA, les intérêts financiers ne sont plus les mêmes
1  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 23/08/2024 à 8:22
Citation Envoyé par Ryu2000 Voir le message
Il faut le temps que les lois se fassent, c'est un processus lent.
Je suis moins optimiste que toi là dessus.
Le problème n'est pas le temps législatif mais l'impunité de certains ou la capacité à répondre à ce système.

Je vais donner un exemple : il y a 7-8 ans les troupes d'improvisations théâtrale vers chez moi ont reçu des courriers ou des mails leur signalant qu'elles avaient violées les droits d'auteurs pendant certains de leurs évènements en diffusant au public des musiques qui n'étaient pas libre de droits (de mémoire on leur réclamait 75€ par évènements sur environ 1 an soit entre 300 et 1000€).
Certaines troupes ont décidé de payer vite pour éviter tout problème.
D'autres ont décidé de contester collectivement chaque évènement via courrier d'un avocat.
Une partie des évènements ont été retiré de la liste mais pour d'autres on a reçu la liste des musiques diffusées avec les heures de diffusion.
Je n'ai pas le détail de la suite mais s'en est suivi plusieurs échanges entre avocats pour que finalement ils renoncent à toute demande.

Là où je veux en venir est que si tu as les moyens (en l'occurrence un improvisateur avocat) et que tu pousses l'adversaire à dépenser plus en te répondant qu'il n'y gagnera à la fin, les poursuites sont abandonnées.
Les puissants ont quasiment moyens illimités sur ce genre de sujets stratégique pour eux (regarde les amendes données aux GAFAM qui se répètent tous les ans sans que rien ne change).
Ils sont factuellement au dessus de la loi parce qu'il est plus rentable pour eux de ne pas la respecter et de payer l'amende que de la respecter.
1  0 
Avatar de OuftiBoy
Membre éclairé https://www.developpez.com
Le 31/08/2024 à 20:50


Mais quand même, quand je lis ceci:

Citation Envoyé par OrthodoxWindows Voir le message
Surtout pas, il s'agit d'une mesure totalement absurde, qui ne peut que conduire à la mort de l'IA générative. Même des IA très modérés peuvent générer du contenu pouvant tomber sous le coup de la loi, c'est impossible d'empêcher cela.
Je suis dubitatif de cette réponse. Si un "produit" (ici l'IA), fournit un "service" défaillant (ici, les réponses que l'IA donne), il faut bien avoir un responsable vers qui pouvoir se retourner pour avoir une "indemnisation" en cas de mauvais fonctionnement dudit "service".

Parce que sinon, c'est la porte ouverte à tous les abus.

Si tu vas au restaurant, que tu commandes un steak au poivre, et qu'on te sers une pizza avariée, tu vas la manger sans rien dire ? Ou bien tu vas réclamer au "responsable" de ce restaurant des explications ?

Si tu vas à l'hopital pour te faire retirer un furoncle, et qu'on te retire un testicule à la place, là non plus tu ne vas rien dire ?

Si c'est le cas, je ne peux que de t'applaudire Tu est le plus tolérant du monde.


Je ne vois pas pourquoi on devrait "absoudre" de toute responsabilités le "responsable" d'une IA qui "Hallucine" (je ne parle pas des développeurs, mais des éditeurs de ces IA, ceux qui gagnent du fric en vomissant un gloubiboulga en remixant ce qu'ils ont volé un peu partout sur le web).

Et si cela ne peut que conduire à la mort de l'IA générative, ça n'est pas le soucis, ça ne sera ni la première ni la dernière révolution qui ne mène nulle part. Le monde continuera de tourner.

Citation Envoyé par OrthodoxWindows Voir le message
Pour le reste, je ne vois pas en quoi Grok est particulièrement un problème, vu qu'il existe plusieurs modèles open-source, de plus en plus performant.

Evidemment, si tu trouve normal que l'IA peut générer n'importe quoi, sans être responsable de rien, je comprend que tu ne vois pas le soucis avec Grok.

Ce n'est pas le soucis d'une IA ou d'une Autre, c'est tout simplement une "technologie" qui n'est pas encore au point, qu'on balance dans la nature en expérant qu'elle ne produise pas plus de problèmes qu'elle n'en résoud.

Si tu faisais de l'humour, je m'excuse sinon je vais tenter de rester "zen"

BàV et Peace & Love.
2  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 31/08/2024 à 21:25
Citation Envoyé par OuftiBoy Voir le message
Je suis dubitatif de cette réponse. Si un "produit" (ici l'IA), fournit un "service" défaillant (ici, les réponses que l'IA donne), il faut bien avoir un responsable vers qui pouvoir se retourner pour avoir une "indemnisation" en cas de mauvais fonctionnement dudit "service".

Parce que sinon, c'est la porte ouverte à tous les abus.
Cite moi un seul modèle d'IA générative à usage généraliste incapable de générer un contenu potentiellement passible de justice. Sachant que pour être dans le juste, il faut aussi inclure ce qui pourra être illégal dans le futur et dans certains régimes autoritaires.
De plus, la comparaison avec la pizza avariée n'a aucun sens, car là c'est plutôt le client lui-même qui réclame une pizza avarié. En cas d'IA générative, tenir l'entreprise/le développeur pour responsable de la génération d'un contenu est aussi absurde que de tenir pour responsable le fabricant d'une voiture à cause d'un conducteur ayant délibérément foncé sur un piéton (bah oui, on peu toujours dire que le fabricant avais juste à empêcher que la situation puisse se produire )


Evidemment, si tu trouve normal que l'IA peut générer n'importe quoi, sans être responsable de rien, je comprend que tu ne vois pas le soucis avec Grok.

Ce n'est pas le soucis d'une IA ou d'une Autre, c'est tout simplement une "technologie" qui n'est pas encore au point, qu'on balance dans la nature en espérant qu'elle ne produise pas plus de problèmes qu'elle n'en résoud.
Visiblement tu n'a pas compris mon propos : un modèle open-source, c'est un modèle avec le code-source distribué par le développeur, sous une licence libre. A ce moment là, le développeur ne peux pas être responsable du code qu'il publie, puisque la licence décharge le développeur de responsabilités ! Ou même l'entreprise, si c'est une entreprise qui publie le code source.

Et la seul fois où un tribunal a réussi à rendre illégal un code source (DeCSS), ça a donné ça.
1  0 
Avatar de OuftiBoy
Membre éclairé https://www.developpez.com
Le 31/08/2024 à 22:40
Citation Envoyé par OrthodoxWindows Voir le message
Cite moi un seul modèle d'IA générative à usage généraliste incapable de générer un contenu potentiellement passible de justice.
Ben justement, il n'y en a pas, et c'est bien là le soucis. Toutes les IA déconnent à un moment ou l'autre.

Citation Envoyé par OrthodoxWindows Voir le message
Sachant que pour être dans le juste, il faut aussi inclure ce qui pourra être illégal dans le futur et dans certains régimes autoritaires.[/B]
Tu connais peut-être le futur , tu connais peut-être madame Irma , moi pas. Si déjà les IA Générative pouvaient sortir quelque chose qui est correcte/légal dans le présent, ça serait déjà pas mal, mais ce n'est pas encore le cas. Je serais le premier à être contant que l'IA aide l'humain a être débarrassé de certaines tâches sans grand intérêt, mais ce n'est pas encore le cas. J'aimerais que le FSD de Tesla soit aussi bon que ce qui est promis, mais ce n'est pas le cas.

Citation Envoyé par OrthodoxWindows Voir le message
De plus, la comparaison avec la pizza avariée n'a aucun sens, car là c'est plutôt le client lui-même qui réclame une pizza avarié.
Que dire, as-tu vraiment lu ma réponse précédente ? Je parlais d'un gars qui va dans un resto, commande un steak au poivre, mais reçois une pizza avariée. Je ne vois pas comment tu peux dire que c'est le client qui a demandé une pizza avariée.

Citation Envoyé par OrthodoxWindows Voir le message
En cas d'IA générative, tenir l'entreprise/le développeur pour responsable de la génération d'un contenu est aussi absurde que de tenir pour responsable le fabricant d'une voiture à cause d'un conducteur ayant délibérément foncé sur un piéton (bah oui, on peu toujours dire que le fabricant avais juste à empêcher que la situation puisse se produire )
Désolé, mais il me semble que tu t'égard. Il n'y a aucun rapport. Dans le cas que tu cites, bien sûr que le vendeur de la voiture n'est pas responsable, je n'ai jamais dis ou même suggérer cela.

Si le conducteur conduit la voiture vers un piéton volontairement, c'est lui le responsable.
Par contre, si en tournant le volant à droite, la voiture va à gauche, ce n'est pas le conducteur qui est responsable, mais bien le constructeur.

Quand un humain fait une erreur, il est en responsable.
Quand une IA fait une erreur (on parle d'hallucination pour adoucir le soucis), elle est responsable, et ceux qui l'on vendue le sont.

Citation Envoyé par OrthodoxWindows Voir le message
Visiblement tu n'a pas compris mon propos : un modèle open-source, c'est un modèle avec le code-source distribué par le développeur, sous une licence libre. A ce moment là, le développeur ne peux pas être responsable du code qu'il publie, puisque la licence décharge le développeur de responsabilités ! Ou même l'entreprise, si c'est une entreprise qui publie le code source.
Merci, je sais ce qu'est l'open-source Mais je ne vois pas ce que ça change. Je ne parle pas d'un projet lambda ou de candy-crush. Si pour se dédouaner de toute responsabilité, il suffit d'écrire un petit mot disant qu'on est pas responsable, je vais vite écrire un petit mot en bas de ma déclaration d'impôt disant que je ne suis pas responsable de l'avoir mal remplie, et d'avoir éluder l'impôt, et hop, tu crois que ça va passer crème ?

Donc tu es d'accord que personne n'est jamais responsable de rien ? Si je met en vente un produit qui ne fait pas ce qu'il est sensé faire, je ne suis pas responsable ? Donc pout toi, le Boeing MAX qui a causé la mort de centaines de personnes parce mal conçu, y'a pas de responsable ? Parce que les plans de l'avion sont disponibles sur le net ? Vas dire ça aux familles des défunts. Il y a quelques années, Perrier avait fourni un lot de bouteille avec de l'essence dedans, et bien oui, ils étaient responsables et l'on reconnu et augmenté la sécurité de leur chaine de production. Mais toi, avant de boire quoi que ce soit, tu fais une analyse chimique du produit ? Et tu fais ça dans tous les domaines ? Chapeau tu es omniscient.

BàT et Peace & Love.
1  0 
Avatar de OuftiBoy
Membre éclairé https://www.developpez.com
Le 01/09/2024 à 6:58
Citation Envoyé par OrthodoxWindows Voir le message
Le problème est qu'on ne parle pas du même problème.
C'est possible, c'est en tout cas agréable de pouvoir discuter sereinement.

Citation Envoyé par OrthodoxWindows Voir le message
Tu semble parler des hallucinations, je parle du contenu potentiellement illégal que peu générer une IA après demande de l’utilisateur en ce sens.
Le soucis, c'est que la personne qui fait une demande à l'IA, sans aucune volonté de tomber dans l'illégalité, n'est pas forcément en mesure de savoir si le résultat qu'elle obtient est légal ou pas.

Oui, les hallucinations sont la preuve que l'IA n'est pas encore prête a être utilisée partout. Il y'a certes des "niches" où elle peut déjà rendre service, comme par exemple dans l'analyse de radiographie pour détecter des tumeurs. Mais ce n'est pas de l'IA, ça existe depuis un bon moment, c'est juste un traitement d'images, qui peut aider à faire un meilleur diagnostic.

Citation Envoyé par OrthodoxWindows Voir le message
Je n'ai pas compris immédiatement, car le dernier article ne parle pas des hallucinations, hors c'était celui ci que je commentais au départ. Concernant l'open-source : techniquement, une hallucination ne peux pas être contenu dans un code brut. Cela survient après, lors de la phase d'apprentissage. Le "responsable" est donc celui qui a formé le modèle, jamais le développeur.
C'est effectivement un autre problème avec l'IA. Elle ne peut fournir en sortie qu'une probabilité qui dépend de la qualité des données qu'elle a reçu lors de son apprentissage. Et c'est un très gros problème qui a de multiple facettes:

  • - D'où viennent ces données ? De ce que j'en sais, on bourre l'IA d'une floppée de contenus obtenu sur Internet, et très souvent illégalement. L'ancien PDG de Google a même déclarer qu'il fallait "voler" ces informations, et que ce qu'elle rapporteront suffira largement a payer des avocats pour régler les éventuelles soucis de droit d'auteur. Je trouve que c'est des méthodes de voyous. Le plus "riche", le plus "fort', imposera sa loi aux autres. Ce n'est pas un monde dans lequel je veux voir grandir mes enfants et petit-enfants.

    - Ces données sont elles "validées" avant d'être injectées dans le système d'apprentissage ? La masse de donnée qu'il faut pour entrainer une IA est tellement énorme que c'est impossible a faire. Il faudrait des milliers de spécialistes sur des milliers de sujets. Ce n'est humaine pas possible.

    - Si l'IA est principalement fournie d'info venue d'internet, sans vérification, ça ne m'étonne pas qu'elle hallucine assez souvent. Et ça peut être très dangereux pour la personne qui obtient ces informations. Elle ne sait peut-être pas détecter que si la réponse est fausse et même très dangereuse si elle suit aveuglément ce que lui répond une IA.

    - Il y'a des bonnes infos sur internet, et d'autres pour le moins douteuse. On peut trouver la bonne info, dans un domaine particulier, si seulement on maîtrise déjà assez bien le sujet. Quand je vais sur StackOverflow, je sais ce que je cherche et j'ai assez d'expérience pour "trouver" la bonne information, parce que j'ai de solides bases niveau développement. Par contre, si je dois chercher des informations sur une question de chimie, j'aurais bien du mal a m'informer correctement et de comprendre ce que je lis.

    - Pareil pour le code généré par l'IA. Il faut savoir "remarquer" quand l'IA déconne. Nous, en temps que développeur, on peut éventuellement remarquer ces erreurs, mais même le meilleur développeur au monde ne peux pas connaître et maîtrisé tous les langages existant.

    - Concernant les "droits d'auteur", et savoir si l'information peut être utilisée ou pas, cela ne doit pas être évident non plus, et ça peut mettre des entreprises dans des galères pas possible, car celui qui "gagnera" sera à 99% celui qui sait se payer les meilleurs avocats, ou faire trainer les procédures pour étouffer lentement une petite boite par rapport à des des GAFAM.

    - Si on parle de développements, si on se met à se "reposer" sur l'IA, il n'y aura bien vite plus assez de développeurs assez compétant pour vérifier le code produit. Parce que ce n'est plus du développement, ça n'a plus rien de très passionnant, et ça n'attirera plus personne.

    - Perso, si le métier de développeur devient un simple métier de "surveillance", ça enlève toute ce qui est intéressant dans le métier, et ce sera sans moi.


Quand à savoir qui est responsable de quoi en cas de gros soucis, ce sera encore une fois une bataille d'avocats, que seul les plus gros pourront en supporter le coup. Quand Einstein a fait ses traveaux sur l'énergie atomique, je ne pense pas que son intention était de fabriquer des bombes atomique et encore moins de pulvériser des milliers d'innocents. Il n'est pas responsable. Le développeur qui "construit" une méthode permettant une forme d'IA n'est pas responsable non plus, mais la personne qui va utiliser ce travail, cette méthode, est lui responsable. Et le monde est ainsi fait que ce sont rarement les vrais responsables qui chute. On trouve toujours bien un pauvre gus pour tout lui mettre sur le dos.

Il y'a aussi le problème que des "exemples" ont été mis en ligne il y a plus de 10 ou même 20 ans, pour des raisons disons de partage de savoir, avec une idée "académique". Que tous cela soit pompé 20 ans plus tard et en plus revendu, c'est une pillule difficile a avaler pour celui qui a prit le temps de poster des informations de qualité.

Un autre "effet de bord", c'est que puisse que l'on sait maintenant que ce qu'on poste sera utilisé par d'autres à des fins mercantile, l'information de qualité deviendra de moins en moins disponible, les gens n'aime pas trop qu'on se foute de leur geule. C'est la panique chez StackOverflow, car plusieurs très bon dévellopeurs y postaient des réponses de qualité, gratuitement, et que maintenant StackOverflow essaye de moneyer tout ce savoir. Il empeche même que l'on efface des réponses ou qu'on supprime un compte. C'est encore une fois des méthodes que je ne peux cautionner.

Enfin, puisque l'IA ne sait que "reproduire" sur base d'un "existant", le risque est grand que tout deviennent fade et sans évolutions.

Voilà mon avis sur l'IA qui n'engage que moi.

BàT et comme toujours, Peace and Love.
1  0