IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Grok AI est un désastre pour la démocratie : l'IA d'Elon Musk intégrée à X n'a pas de garde-fous pour empêcher les utilisateurs de générer de la désinformation électorale
Selon une enquête du CCDH

Le , par Stéphane le calme

17PARTAGES

9  0 
Elon Musk travaillerait au lancement d'une startup d'IA pour faire concurrence à OpenAI et son ChatGPT,
le milliardaire chercherait à lever des fonds auprès d'investisseurs de SpaceX et Tesla

Le milliardaire Elon Musk travaillerait au lancement d'une startup d'intelligence artificielle qui rivalisera avec OpenAI, le fabricant de ChatGPT, a rapporté vendredi le Financial Times citant des personnes familières avec ses plans. Le propriétaire de Twitter, Musk, rassemble une équipe de chercheurs et d'ingénieurs en IA, selon le rapport du FT, et est également en pourparlers avec certains investisseurs de SpaceX et Tesla Inc pour investir dans sa nouvelle entreprise.

L'entrepreneur technologique Elon Musk développerait des plans pour créer une startup d'intelligence artificielle (IA) pour concurrencer le fabricant de ChatGPT OpenAI, l'une des sociétés d'IA générative les plus populaires qu'il a cofondée en 2015.

La révélation est intervenue après que des informations ont fait surface selon lesquelles Musk est en train de constituer une équipe de chercheurs et d'ingénieurs en intelligence artificielle, selon le Financial Times. Alors que Musk a quitté le conseil d'administration d'OpenAI en 2018, le lancement de la nouvelle startup de l'IA le placera parmi d'autres géants de la technologie, tels que Google et Microsoft, pour construire une IA de nouvelle génération.

Le rapport suggère que Musk est en pourparlers avec les investisseurs existants de SpaceX et de Tesla concernant les investissements dans la prochaine entreprise d'IA. « Un groupe de personnes y investit... c'est réel et ils en sont ravis », a ajouté la source de FT.

Une société dédiée à l'intelligence artificielle créée en mars

Elon Musk a créé une nouvelle société dédiée à l'intelligence artificielle - et elle s'appelle X.AI, comme l'a rapporté pour la première fois le Wall Street Journal. La société, qui, selon un dossier du Nevada, a été constituée le mois dernier, a actuellement Musk comme directeur et Jared Birchall, le directeur du family office de Musk, répertorié comme son secrétaire. Le dossier indique que Musk a constitué l'entreprise le 9 mars 2023.

Des rumeurs selon lesquelles Musk créerait une entreprise d'IA circulent depuis des jours. Un rapport de Business Insider a révélé que Musk avait acheté des milliers d'unités de traitement graphique (GPU) pour alimenter un prochain produit d'IA générative. Deux sources anonymes proches de l'entreprise ont révélé au quotidien que le PDG de Twitter a récemment acheté près de 10 000 unités de traitement graphique (GPU) à utiliser sur la plateforme.

En règle générale, les GPU fonctionnent sur des modèles d'IA à grande échelle en raison de la puissance de calcul massive requise par la technologie. Cela fait suite à un tweet de Musk du 18 mars, dans lequel il a déclaré que la société utiliserait l'IA pour « détecter et mettre en évidence la manipulation de l'opinion publique » sur Twitter.

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">In the months ahead, we will use AI to detect & highlight manipulation of public opinion on this platform.<br><br>Let’s see what the psy ops cat drags in …</p>— Elon Musk (@elonmusk) <a href="https://twitter.com/elonmusk/status/1636898888287236099?ref_src=twsrc%5Etfw">March 18, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

Les sources anonymes auraient estimé que le projet n'en était qu'à ses débuts, mais l'achat d'une telle quantité de GPU montre que Musk y est « engagé ». L'une des sources a déclaré que le projet fonctionne avec un grand modèle de langage. Cependant, les sources ont également déclaré que le rôle précis de l'IA générative sur Twitter n'est pas clair.

De plus, Twitter a récemment acquis de nouveaux talents avec une vaste expérience dans le domaine de l'IA. En mars, les ingénieurs Igor Babuschkin et Manuel Kroiss ont rejoint l'équipe de Musk après avoir travaillé avec DeepMind, une filiale de recherche en IA d'Alphabet, la société mère de Google.

Ces développements surviennent quelques semaines seulement après que Musk a signé une lettre ouverte, avec des milliers d'autres chercheurs dans le domaine de la technologie, pour demander de suspendre temporairement le développement de l'IA en raison du risque pour l'humanité.

Musk a également lancé en 2017 un avertissement aux régulateurs lors d'un événement avec l'Association nationale des gouverneurs des États-Unis selon lequel la recherche sur l'IA doit être réglementée « avant qu'il ne soit trop tard ».

Le Financial Times a également rapporté que Musk prévoyait de créer une entreprise d'IA pour concurrencer l'OpenAI soutenu par Microsoft. Il n'est pas précisé s'il s'agit de X.AI ou d'une autre société. Musk aurait même demandé des fonds aux investisseurs de SpaceX et de Tesla pour démarrer l'entreprise.

Lors d'une interview sur Twitter Spaces avec BBC, lorsque Musk a été interrogé sur tous les GPU qu'il a achetés, le milliardaire n'a fait aucune mention de son intention de créer une société d'IA, déclarant « il semble que tout le monde achète des GPU à ce stade ». « Twitter et Tesla achètent certainement des GPU », a ajouté Elon Musk. Le prétendu nom X.AI correspond à l'image de marque du nom X Corp. qu'il a depuis attribué à Twitter, ainsi qu'à l'étiquette «X» qu'il a appliquée à sa vision d'une «application tout».


Pour mémoire, Twitter, Inc. s'appelle désormais X Corp., selon un dossier déposé par un tribunal de Californie. Étant donné que Twitter n'est plus une entreprise publique, elle n'a pas à signaler les mises à jour telles que les changements de nom à la SEC. Quoiqu'il en soit, le nouveau nom a été repéré dans un document du 4 avril lié au procès de la militante d'extrême droite Laura Loomer contre Twitter et Facebook. « Twitter, Inc. a été fusionné avec X Corp. et n'existe plus », indique le document.

Des difficultés entre Elon Musk et OpenAI

Dans une annonce en 2018 après le départ d'Elon Musk, OpenAI a déclaré que Musk continuerait à financer l'organisation, mais Musk ne l'a pas fait, selon des personnes proches du dossier. Il avait promis de donner environ 1 milliard de dollars sur une période de plusieurs années (il avait déjà contribué 100 millions de dollars), mais ses paiements ont cessé après son départ, ont déclaré des personnes proches du dossier. Cela a laissé l'organisation à but non lucratif dans l'impossibilité de payer les frais astronomiques associés à la formation de modèles d'IA sur des superordinateurs.

Cet automne-là, il est devenu encore plus évident pour certaines personnes d'OpenAI que les coûts pour devenir une entreprise d'IA de pointe allaient augmenter. Le « transformateur » de Google Brain avait ouvert une nouvelle frontière, où l'IA pouvait s'améliorer à l'infini. Mais cela signifiait lui fournir des données sans fin pour le former (une entreprise coûteuse).

OpenAI a pris la grande décision de pivoter vers ces modèles de transformateurs.

Le 11 mars 2019, OpenAI a annoncé qu'elle créait une entité à but lucratif afin de pouvoir collecter suffisamment d'argent pour payer la puissance de calcul nécessaire pour poursuivre les modèles d'IA les plus ambitieux. « Nous voulons augmenter notre capacité à lever des capitaux tout en servant notre mission, et aucune structure juridique préexistante que nous connaissons ne trouve le bon équilibre », écrivait la société à l'époque. OpenAI a déclaré qu'il plafonnait les bénéfices pour les investisseurs, tout excédent revenant à l'organisation à but non lucratif d'origine.

Moins de six mois plus tard, OpenAI a pris 1 milliard de dollars à Microsoft, qui pourrait fournir non seulement un financement, mais aussi un savoir-faire en matière d'infrastructure. Ensemble, ils ont construit un superordinateur pour former des modèles massifs qui ont finalement créé ChatGPT et le générateur d'images DALL-E. Le dernier modèle de langage, GPT-4, a 1 000 milliards de paramètres.

Lorsque ChatGPT a été lancé en novembre, OpenAI est instantanément devenu la nouvelle startup technologique la plus en vogue, forçant Google à se démener pour jouer au rattrapage. Musk était furieux, selon des personnes proches du dossier.

En décembre, un mois après le lancement de ChatGPT, Musk a retiré l'accès d'OpenAI au « firehorse » de données de Twitter (un contrat qui a été signé avant que Musk n'acquière Twitter).

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Not surprising, as I just learned that OpenAI had access to Twitter database for training. I put that on pause for now. <br><br>Need to understand more about governance structure & revenue plans going forward.<br><br>OpenAI was started as open-source & non-profit. Neither are still true.</p>— Elon Musk (@elonmusk) <a href="https://twitter.com/elonmusk/status/1599291104687374338?ref_src=twsrc%5Etfw">December 4, 2022</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

Le 17 février, il a tweeté « OpenAI a été créé comme open source (c'est pourquoi je l'ai nommée "Open" AI), une société à but non lucratif pour servir de contrepoids à Google, mais maintenant c'est devenu une source fermée, maximum -société à but lucratif effectivement contrôlée par Microsoft ».

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">OpenAI was created as an open source (which is why I named it “Open” AI), non-profit company to serve as a counterweight to Google, but now it has become a closed source, maximum-profit company effectively controlled by Microsoft.<br><br>Not what I intended at all.</p>— Elon Musk (@elonmusk) <a href="https://twitter.com/elonmusk/status/1626516035863212034?ref_src=twsrc%5Etfw">February 17, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

Le 15 mars, il a tweeté : « Je ne comprends toujours pas comment une organisation à but non lucratif à laquelle j'ai fait don d'environ 100 millions de dollars est devenue en quelque sorte une capitalisation boursière de 30 milliards de dollars. Si c'est légal, pourquoi tout le monde ne le fait-il pas ? »

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">I’m still confused as to how a non-profit to which I donated ~$100M somehow became a $30B market cap for-profit. If this is legal, why doesn’t everyone do it?</p>— Elon Musk (@elonmusk) <a href="https://twitter.com/elonmusk/status/1636047019893481474?ref_src=twsrc%5Etfw">March 15, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

Source : Financial Times

Et vous ?

Quelle lecture faites-vous des rapports entre Elon Musk et OpenAI depuis son départ de la société ?
Que pensez-vous de son idée de lancer une startup d'IA pour lui faire concurrence ? Êtes-vous surpris de le voir aller dans ce sens ?
Cela vous semble-t-il contradictoire qu'il soit demandé dans le même temps la suspension du développement de GPT pour une période d'au moins six mois ? Dans quelle mesure ?
Vous avez lu gratuitement 3 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 30/08/2024 à 19:16
Il a toujours été très accessible de faire un trucage avec photoshop ou gimp, à l'époque les gens étaient bien moins informé et il y a eu peu de désinformation.

La question de la responsabilité concernant les fake news IA, n'est pas a posé du côté de l'IA, des dev, ou autres. Elle est du côté de l'utilisateur.
Quelqu'un a parfaitement le droit de créer une fausse image et de la diffuser, par contre, l'intention de tromper et de manipuler est condamnable.

Cette évolution juridique et des mentalités qui tend à rendre irresponsable les utilisateurs (citoyens) est plus qu'inquiétante pour la démocratie.
Mieux vaudrait se concentrer sur l'enseignement de l'esprit critique, que sur la censure de modèle IA ...
2  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 31/08/2024 à 20:50


Mais quand même, quand je lis ceci:

Citation Envoyé par OrthodoxWindows Voir le message
Surtout pas, il s'agit d'une mesure totalement absurde, qui ne peut que conduire à la mort de l'IA générative. Même des IA très modérés peuvent générer du contenu pouvant tomber sous le coup de la loi, c'est impossible d'empêcher cela.
Je suis dubitatif de cette réponse. Si un "produit" (ici l'IA), fournit un "service" défaillant (ici, les réponses que l'IA donne), il faut bien avoir un responsable vers qui pouvoir se retourner pour avoir une "indemnisation" en cas de mauvais fonctionnement dudit "service".

Parce que sinon, c'est la porte ouverte à tous les abus.

Si tu vas au restaurant, que tu commandes un steak au poivre, et qu'on te sers une pizza avariée, tu vas la manger sans rien dire ? Ou bien tu vas réclamer au "responsable" de ce restaurant des explications ?

Si tu vas à l'hopital pour te faire retirer un furoncle, et qu'on te retire un testicule à la place, là non plus tu ne vas rien dire ?

Si c'est le cas, je ne peux que de t'applaudire Tu est le plus tolérant du monde.


Je ne vois pas pourquoi on devrait "absoudre" de toute responsabilités le "responsable" d'une IA qui "Hallucine" (je ne parle pas des développeurs, mais des éditeurs de ces IA, ceux qui gagnent du fric en vomissant un gloubiboulga en remixant ce qu'ils ont volé un peu partout sur le web).

Et si cela ne peut que conduire à la mort de l'IA générative, ça n'est pas le soucis, ça ne sera ni la première ni la dernière révolution qui ne mène nulle part. Le monde continuera de tourner.

Citation Envoyé par OrthodoxWindows Voir le message
Pour le reste, je ne vois pas en quoi Grok est particulièrement un problème, vu qu'il existe plusieurs modèles open-source, de plus en plus performant.

Evidemment, si tu trouve normal que l'IA peut générer n'importe quoi, sans être responsable de rien, je comprend que tu ne vois pas le soucis avec Grok.

Ce n'est pas le soucis d'une IA ou d'une Autre, c'est tout simplement une "technologie" qui n'est pas encore au point, qu'on balance dans la nature en expérant qu'elle ne produise pas plus de problèmes qu'elle n'en résoud.

Si tu faisais de l'humour, je m'excuse sinon je vais tenter de rester "zen"

BàV et Peace & Love.
2  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 31/08/2024 à 21:25
Citation Envoyé par OuftiBoy Voir le message
Je suis dubitatif de cette réponse. Si un "produit" (ici l'IA), fournit un "service" défaillant (ici, les réponses que l'IA donne), il faut bien avoir un responsable vers qui pouvoir se retourner pour avoir une "indemnisation" en cas de mauvais fonctionnement dudit "service".

Parce que sinon, c'est la porte ouverte à tous les abus.
Cite moi un seul modèle d'IA générative à usage généraliste incapable de générer un contenu potentiellement passible de justice. Sachant que pour être dans le juste, il faut aussi inclure ce qui pourra être illégal dans le futur et dans certains régimes autoritaires.
De plus, la comparaison avec la pizza avariée n'a aucun sens, car là c'est plutôt le client lui-même qui réclame une pizza avarié. En cas d'IA générative, tenir l'entreprise/le développeur pour responsable de la génération d'un contenu est aussi absurde que de tenir pour responsable le fabricant d'une voiture à cause d'un conducteur ayant délibérément foncé sur un piéton (bah oui, on peu toujours dire que le fabricant avais juste à empêcher que la situation puisse se produire )


Evidemment, si tu trouve normal que l'IA peut générer n'importe quoi, sans être responsable de rien, je comprend que tu ne vois pas le soucis avec Grok.

Ce n'est pas le soucis d'une IA ou d'une Autre, c'est tout simplement une "technologie" qui n'est pas encore au point, qu'on balance dans la nature en espérant qu'elle ne produise pas plus de problèmes qu'elle n'en résoud.
Visiblement tu n'a pas compris mon propos : un modèle open-source, c'est un modèle avec le code-source distribué par le développeur, sous une licence libre. A ce moment là, le développeur ne peux pas être responsable du code qu'il publie, puisque la licence décharge le développeur de responsabilités ! Ou même l'entreprise, si c'est une entreprise qui publie le code source.

Et la seul fois où un tribunal a réussi à rendre illégal un code source (DeCSS), ça a donné ça.
1  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 31/08/2024 à 22:40
Citation Envoyé par OrthodoxWindows  Voir le message
Cite moi un seul modèle d'IA générative à usage généraliste incapable de générer un contenu potentiellement passible de justice.

Ben justement, il n'y en a pas, et c'est bien là le soucis. Toutes les IA déconnent à un moment ou l'autre.

Citation Envoyé par OrthodoxWindows  Voir le message
Sachant que pour être dans le juste, il faut aussi inclure ce qui pourra être illégal dans le futur et dans certains régimes autoritaires.[/B]

Tu connais peut-être le futur , tu connais peut-être madame Irma , moi pas. Si déjà les IA Générative pouvaient sortir quelque chose qui est correcte/légal dans le présent, ça serait déjà pas mal, mais ce n'est pas encore le cas. Je serais le premier à être contant que l'IA aide l'humain a être débarrassé de certaines tâches sans grand intérêt, mais ce n'est pas encore le cas. J'aimerais que le FSD de Tesla soit aussi bon que ce qui est promis, mais ce n'est pas le cas.

Citation Envoyé par OrthodoxWindows  Voir le message
De plus, la comparaison avec la pizza avariée n'a aucun sens, car là c'est plutôt le client lui-même qui réclame une pizza avarié.

Que dire, as-tu vraiment lu ma réponse précédente ? Je parlais d'un gars qui va dans un resto, commande un steak au poivre, mais reçois une pizza avariée. Je ne vois pas comment tu peux dire que c'est le client qui a demandé une pizza avariée.

Citation Envoyé par OrthodoxWindows  Voir le message
En cas d'IA générative, tenir l'entreprise/le développeur pour responsable de la génération d'un contenu est aussi absurde que de tenir pour responsable le fabricant d'une voiture à cause d'un conducteur ayant délibérément foncé sur un piéton (bah oui, on peu toujours dire que le fabricant avais juste à empêcher que la situation puisse se produire )

Désolé, mais il me semble que tu t'égard. Il n'y a aucun rapport. Dans le cas que tu cites, bien sûr que le vendeur de la voiture n'est pas responsable, je n'ai jamais dis ou même suggérer cela.

Si le conducteur conduit la voiture vers un piéton volontairement, c'est lui le responsable.
Par contre, si en tournant le volant à droite, la voiture va à gauche, ce n'est pas le conducteur qui est responsable, mais bien le constructeur.

Quand un humain fait une erreur, il est en responsable.
Quand une IA fait une erreur (on parle d'hallucination pour adoucir le soucis), elle est responsable, et ceux qui l'on vendue le sont.

Citation Envoyé par OrthodoxWindows  Voir le message
Visiblement tu n'a pas compris mon propos : un modèle open-source, c'est un modèle avec le code-source distribué par le développeur, sous une licence libre. A ce moment là, le développeur ne peux pas être responsable du code qu'il publie, puisque la licence décharge le développeur de responsabilités ! Ou même l'entreprise, si c'est une entreprise qui publie le code source.

Merci, je sais ce qu'est l'open-source Mais je ne vois pas ce que ça change. Je ne parle pas d'un projet lambda ou de candy-crush. Si pour se dédouaner de toute responsabilité, il suffit d'écrire un petit mot disant qu'on est pas responsable, je vais vite écrire un petit mot en bas de ma déclaration d'impôt disant que je ne suis pas responsable de l'avoir mal remplie, et d'avoir éluder l'impôt, et hop, tu crois que ça va passer crème ?

Donc tu es d'accord que personne n'est jamais responsable de rien ? Si je met en vente un produit qui ne fait pas ce qu'il est sensé faire, je ne suis pas responsable ? Donc pout toi, le Boeing MAX qui a causé la mort de centaines de personnes parce mal conçu, y'a pas de responsable ? Parce que les plans de l'avion sont disponibles sur le net ? Vas dire ça aux familles des défunts. Il y a quelques années, Perrier avait fourni un lot de bouteille avec de l'essence dedans, et bien oui, ils étaient responsables et l'on reconnu et augmenté la sécurité de leur chaine de production. Mais toi, avant de boire quoi que ce soit, tu fais une analyse chimique du produit ? Et tu fais ça dans tous les domaines ? Chapeau tu es omniscient.

BàT et Peace & Love.
1  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 01/09/2024 à 6:58
Citation Envoyé par OrthodoxWindows Voir le message
Le problème est qu'on ne parle pas du même problème.
C'est possible, c'est en tout cas agréable de pouvoir discuter sereinement.

Citation Envoyé par OrthodoxWindows Voir le message
Tu semble parler des hallucinations, je parle du contenu potentiellement illégal que peu générer une IA après demande de l’utilisateur en ce sens.
Le soucis, c'est que la personne qui fait une demande à l'IA, sans aucune volonté de tomber dans l'illégalité, n'est pas forcément en mesure de savoir si le résultat qu'elle obtient est légal ou pas.

Oui, les hallucinations sont la preuve que l'IA n'est pas encore prête a être utilisée partout. Il y'a certes des "niches" où elle peut déjà rendre service, comme par exemple dans l'analyse de radiographie pour détecter des tumeurs. Mais ce n'est pas de l'IA, ça existe depuis un bon moment, c'est juste un traitement d'images, qui peut aider à faire un meilleur diagnostic.

Citation Envoyé par OrthodoxWindows Voir le message
Je n'ai pas compris immédiatement, car le dernier article ne parle pas des hallucinations, hors c'était celui ci que je commentais au départ. Concernant l'open-source : techniquement, une hallucination ne peux pas être contenu dans un code brut. Cela survient après, lors de la phase d'apprentissage. Le "responsable" est donc celui qui a formé le modèle, jamais le développeur.
C'est effectivement un autre problème avec l'IA. Elle ne peut fournir en sortie qu'une probabilité qui dépend de la qualité des données qu'elle a reçu lors de son apprentissage. Et c'est un très gros problème qui a de multiple facettes:


    - D'où viennent ces données ? De ce que j'en sais, on bourre l'IA d'une floppée de contenus obtenu sur Internet, et très souvent illégalement. L'ancien PDG de Google a même déclarer qu'il fallait "voler" ces informations, et que ce qu'elle rapporteront suffira largement a payer des avocats pour régler les éventuelles soucis de droit d'auteur. Je trouve que c'est des méthodes de voyous. Le plus "riche", le plus "fort', imposera sa loi aux autres. Ce n'est pas un monde dans lequel je veux voir grandir mes enfants et petit-enfants.

    - Ces données sont elles "validées" avant d'être injectées dans le système d'apprentissage ? La masse de donnée qu'il faut pour entrainer une IA est tellement énorme que c'est impossible a faire. Il faudrait des milliers de spécialistes sur des milliers de sujets. Ce n'est humaine pas possible.

    - Si l'IA est principalement fournie d'info venue d'internet, sans vérification, ça ne m'étonne pas qu'elle hallucine assez souvent. Et ça peut être très dangereux pour la personne qui obtient ces informations. Elle ne sait peut-être pas détecter que si la réponse est fausse et même très dangereuse si elle suit aveuglément ce que lui répond une IA.

    - Il y'a des bonnes infos sur internet, et d'autres pour le moins douteuse. On peut trouver la bonne info, dans un domaine particulier, si seulement on maîtrise déjà assez bien le sujet. Quand je vais sur StackOverflow, je sais ce que je cherche et j'ai assez d'expérience pour "trouver" la bonne information, parce que j'ai de solides bases niveau développement. Par contre, si je dois chercher des informations sur une question de chimie, j'aurais bien du mal a m'informer correctement et de comprendre ce que je lis.

    - Pareil pour le code généré par l'IA. Il faut savoir "remarquer" quand l'IA déconne. Nous, en temps que développeur, on peut éventuellement remarquer ces erreurs, mais même le meilleur développeur au monde ne peux pas connaître et maîtrisé tous les langages existant.

    - Concernant les "droits d'auteur", et savoir si l'information peut être utilisée ou pas, cela ne doit pas être évident non plus, et ça peut mettre des entreprises dans des galères pas possible, car celui qui "gagnera" sera à 99% celui qui sait se payer les meilleurs avocats, ou faire trainer les procédures pour étouffer lentement une petite boite par rapport à des des GAFAM.

    - Si on parle de développements, si on se met à se "reposer" sur l'IA, il n'y aura bien vite plus assez de développeurs assez compétant pour vérifier le code produit. Parce que ce n'est plus du développement, ça n'a plus rien de très passionnant, et ça n'attirera plus personne.

    - Perso, si le métier de développeur devient un simple métier de "surveillance", ça enlève toute ce qui est intéressant dans le métier, et ce sera sans moi.


Quand à savoir qui est responsable de quoi en cas de gros soucis, ce sera encore une fois une bataille d'avocats, que seul les plus gros pourront en supporter le coup. Quand Einstein a fait ses traveaux sur l'énergie atomique, je ne pense pas que son intention était de fabriquer des bombes atomique et encore moins de pulvériser des milliers d'innocents. Il n'est pas responsable. Le développeur qui "construit" une méthode permettant une forme d'IA n'est pas responsable non plus, mais la personne qui va utiliser ce travail, cette méthode, est lui responsable. Et le monde est ainsi fait que ce sont rarement les vrais responsables qui chute. On trouve toujours bien un pauvre gus pour tout lui mettre sur le dos.

Il y'a aussi le problème que des "exemples" ont été mis en ligne il y a plus de 10 ou même 20 ans, pour des raisons disons de partage de savoir, avec une idée "académique". Que tous cela soit pompé 20 ans plus tard et en plus revendu, c'est une pillule difficile a avaler pour celui qui a prit le temps de poster des informations de qualité.

Un autre "effet de bord", c'est que puisse que l'on sait maintenant que ce qu'on poste sera utilisé par d'autres à des fins mercantile, l'information de qualité deviendra de moins en moins disponible, les gens n'aime pas trop qu'on se foute de leur geule. C'est la panique chez StackOverflow, car plusieurs très bon dévellopeurs y postaient des réponses de qualité, gratuitement, et que maintenant StackOverflow essaye de moneyer tout ce savoir. Il empeche même que l'on efface des réponses ou qu'on supprime un compte. C'est encore une fois des méthodes que je ne peux cautionner.

Enfin, puisque l'IA ne sait que "reproduire" sur base d'un "existant", le risque est grand que tout deviennent fade et sans évolutions.

Voilà mon avis sur l'IA qui n'engage que moi.

BàT et comme toujours, Peace and Love.
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 02/09/2024 à 8:27
De ce que je lis, je pense que la notion de "responsabilité" n'est pas tout à fait correctement détaillée.

Au niveau des IAs produisant du contenu, il y a 2 responsabilités différentes.

1) La responsabilité des sociétés mettant à disposition un modèle d'IA qui produit des contenus faux et trompeur pouvant avoir de grave conséquence sur la vie des personnes. Je prendrais en exemple les plaidoiries d'avocats avec de faux jugements en exemple (même si on peut considérer que l'avocat aurait du vérifier, le fait que le modèle d'IA "invente" des jugements, alors que cela ne lui est pas demandé, est une défaillance du système), mais aussi le cas de ce journaliste allemand qui se voit accuser des crimes qu'il a couvert en tant que journaliste (lien). Dans ces cas, la société mettant le logiciel d'IA à disposition est responsable du dysfonctionnement de son outil.

2) La personne qui utilise l'IA pour produire volontairement une information fausse (cas des images truquées produites par le clan Trump) et qui la diffuse. Dans ce cas, c'est la personne qui diffuse ces données qui est responsable, et non le producteur du logiciel d'IA.

Pour repartir sur une comparaison avec les voitures. En effet, une personne provoquant un accident au volant de sa voiture est responsable. Mais, si la voiture a eu un comportement anormal du à une malfaçon, provoquant l'accident, alors le constructeur est responsable.

JS
1  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 03/09/2024 à 11:58
Citation Envoyé par Jon Shannow Voir le message
Je suis d'accord avec toi. Rien n'est tout blanc ou tout noir. Mais, je pense que la responsabilité des sociétés fournissant un modèle d'IA doit quand même exister et permettre de les condamner si leur outil produit des résultats faux, trompeurs, mensongers nuisant à des une ou plusieurs personnes. Ensuite, je pense aussi que toute personne publiant le résultat d'un modèle d'IA doit signaler que ce qu'il publie provient d'une IA et que cela est potentiellement faux.

Mais bon, tout cela n'est pas simple, et je ne suis pas juriste.
Oui, ce serait un bon début pas trop difficile a mettre dans une loi, que toute personne distribuant un contenu générer par l'IA soit obligé de le mentionner. Même chose pour le code générer par l'IA, il faudrait précisément ET clairement (pas au fond d'une mention de licences de 300 pages), que l'IA a fournit une partie du code.

Je dirais même plus, les éditeurs devraient être obligés d'indiquer le code open-source qu'ils ont utilisés, même s'il est dispo librement et volontairement distribué par son/ses créateurs. Ne fusse que pour remercier les auteurs du produit qu'ils vendent.

Mais oui, je pense que tout cela sera très difficile a vérifier, a contrôler, etc.

En tout cas, il faut interdire au GAFAM de s'auto déresponsabiliser, c'est trop facile.

BàT. et Peace & Love.
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 09/12/2024 à 12:15
Citation Envoyé par Anthony Voir le message
Quel est votre avis sur le sujet ?
Je n'ai vraiment pas de chance, j'ai pris un abonnement d'1 an à Twitter pour pouvoir tester Grok et 2 jours après j'ai appris qu'il devenait gratuit
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 30/08/2024 à 15:49
Citation Envoyé par Stéphane le calme Voir le message
L’IA et l’éthique : Pensez-vous que les développeurs d’IA devraient être tenus responsables des contenus générés par leurs créations ? Pourquoi ou pourquoi pas ?
Les développeurs par le biais des sociétés qui les mettent à disposition, oui, bien sûr. S'ils ne sont responsables de rien, alors, comment exiger une éthique ?
Citation Envoyé par Stéphane le calme Voir le message
Liberté d’expression vs. désinformation : Comment équilibrer la liberté d’expression avec la nécessité de prévenir la désinformation sur les plateformes sociales ?
La liberté d'expression n'a rien à voir avec la divulgation de mensonges et de contre-vérités.
Citation Envoyé par Stéphane le calme Voir le message
Régulation des IA : Quelle forme de régulation, si elle est nécessaire, devrait être mise en place pour les IA conversationnelles ?
Il devrait être aisé de savoir si un texte, une image ou une vidéo a été créé par IA ou non. Comment ? J'en sais rien, mais c'est là-dessus que les chercheurs en IA doivent se concentrer, et vite.
Citation Envoyé par Stéphane le calme Voir le message
Confiance dans les IA : Quelles mesures pourraient renforcer votre confiance dans les réponses fournies par une IA comme Grok ?
Déjà que les sociétés mettant à dispositions ces "trucs" soient responsables en cas de préjudices à des personnes (morales ou physiques). Dans cet exemple, ou Microsoft décline toute responsabilité, comment voulez-vous avoir confiance dans l'IA ? Si Microsoft était responsable, alors, oui, peut-être que la confiance serait là. Et encore, ces sociétés sont tellement puissantes et au-dessus des lois qu'elles réussiraient à s'en sortir par une pirouette.
1  1 
Avatar de noremorse
Membre actif https://www.developpez.com
Le 30/08/2024 à 19:25
La démocratie en occident est une chimère
0  0