IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Elon Musk veut que Tesla investisse 5 milliards de dollars dans sa nouvelle startup xAI, si les actionnaires l'approuvent
Cette intrigante suggestion a été présentée lors d'un sondage sur le réseau social X

Le , par Anthony

10PARTAGES

5  0 
Elon Musk, PDG de Tesla, a fait preuve d'audace en proposant un investissement de 5 milliards de dollars de son entreprise de véhicules électriques dans sa toute nouvelle startup, xAI. Cette suggestion intrigante a été présentée dans le cadre d'un sondage informel sur le réseau social X, suscitant immédiatement la curiosité et la spéculation des investisseurs et des passionnés de technologie.

Elon Reeve Musk est un homme d'affaires et un investisseur connu pour ses rôles clés dans la société spatiale SpaceX et la société automobile Tesla, Inc. Il est également propriétaire de X Corp, la société qui exploite la plateforme de médias sociaux X (anciennement connue sous le nom de Twitter), et a participé à la création de The Boring Company, xAI, Neuralink et OpenAI. Il est l'une des personnes les plus riches du monde ; en juillet 2024, Forbes estime sa valeur nette à 221 milliards de dollars américains.

X.AI Corp. est une startup américaine qui travaille dans le domaine de l'intelligence artificielle (IA). Fondée par Elon Musk en mars 2023, son objectif déclaré est de « comprendre la véritable nature de l'univers ».



M. Musk, qui est déjà à la tête d'une série d'entreprises de premier plan, dont SpaceX, The Boring Co, Neuralink et X Corp, a publié le sondage peu après la conférence téléphonique sur les résultats du deuxième trimestre de Tesla, le mardi 23 juillet au soir. La question, « Tesla devrait-elle investir 5 milliards de dollars dans @xAI, en supposant que l'évaluation soit fixée par plusieurs investisseurs extérieurs crédibles ? », était accompagnée d'une mise en garde selon laquelle tout investissement de ce type nécessiterait l'approbation du conseil d'administration et un vote des actionnaires.

Le dernier rapport sur les résultats de Tesla a révélé un bilan mitigé : alors que les bénéfices ont été inférieurs aux attentes des analystes pour le quatrième trimestre consécutif et que le chiffre d'affaires du segment principal de l'automobile a diminué, l'entreprise a enregistré une hausse significative des ventes de produits de stockage d'énergie. M. Musk a mis l'accent sur des innovations futures telles que les robotaxis et les robots humanoïdes pour susciter l'intérêt des investisseurs. Malgré cela, les actions de Tesla ont chuté de plus de 7 % après la séance.

Les entreprises de M. Musk ne sont pas étrangères à la collaboration et au financement croisé, même si ce n'est pas à une échelle aussi massive. Par exemple, SpaceX a acheté des campagnes publicitaires pour ses services internet Starlink sur X, et The Boring Co. construit des tunnels sur le site de Tesla au Texas. Lors de la conférence téléphonique sur les résultats, M. Musk a été interrogé sur les investissements potentiels dans xAI et l'intégration de son logiciel, Grok, dans les véhicules Tesla. Musk a reconnu la synergie, notant que xAI a joué un rôle déterminant dans l'avancement de la technologie Full Self-Driving de Tesla et dans le développement d'un nouveau centre de données.

Le chiffre de 5 milliards de dollars n'a été présenté qu'après le sondage de Musk à l'issue de la conférence téléphonique, laissant de nombreuses questions sans réponse sur la manière dont Grok, le produit phare de xAI, améliore la technologie de Tesla. xAI, fondée en mars de l'année dernière et évoquée publiquement par Musk en juillet 2023, se concentre sur le développement de grands modèles de langage et de logiciels d'IA pour concurrencer les géants de l'industrie tels que Google, Microsoft, OpenAI, et Meta. Grok vise à offrir une alternative politiquement incorrecte et pleine d'esprit aux chatbots IA existants tels que ChatGPT d'OpenAI, Bard de Google, Bing de Microsoft et Claude d'Anthropic.

Bien que l'investissement potentiel de 5 milliards de dollars de Tesla dans xAI soit encore sujet à débat, cette initiative témoigne de la volonté constante de Musk de repousser les limites de l'intégration de l'IA et de la technologie. Avec le récent cycle de financement de 6 milliards de dollars de la série B de xAI et une valorisation de 24 milliards de dollars, la startup est prête à faire des progrès significatifs dans le paysage de l'IA.

Le monde de la technologie surveille de près la dernière entreprise de Musk, qui pourrait remodeler les industries de l'IA et de l'automobile, en fusionnant les capacités avancées de l'IA avec les innovations pionnières de Tesla. Cet investissement potentiel pourrait marquer un nouveau chapitre dans la quête de M. Musk visant à intégrer des technologies de pointe dans son large éventail d'entreprises, consolidant ainsi sa position de leader visionnaire dans le monde de la technologie.

Par ailleurs, rappelons que des actionnaires de Tesla ont récemment poursuivi le PDG Elon Musk et le conseil d'administration en raison de la décision du milliardaire de créer xAI. Les plaignants considèrent xAI comme un concurrent direct de Tesla et accusent Musk d'avoir détourné les talents et les ressources de Tesla vers sa nouvelle startup. L'action en justice est l'une des contestations les plus directes de la décision de Musk de créer xAI, et elle fait suite à la menace du PDG de développer l'IA en dehors de Tesla s'il n'obtient pas davantage de droits de vote au sein de l'entreprise. Selon les plaignants, Musk a manqué à son obligation fiduciaire envers Tesla et a pillé les ressources de l'entreprise.

Et vous ?

Quel est votre avis sur le sujet ?
Trouvez-vous cette initiative d'Elon Musk crédible ou pertinente ?

Voir aussi :

xAI, la startup d'IA du milliardaire Elon Musk, et le géant de la technologie Oracle ont mis fin à leurs négociations sur un accord potentiel de 10 milliards de dollars portant sur des serveurs

Elon Musk déclare que Grok 2, le chatbot prétendument "anti-woke" qui s'est avéré surtout créer des infox et des vulgarités, sortira en Août, suivi de Grok 3 d'ici la fin de l'année

Des actionnaires de Tesla poursuivent Elon Musk pour avoir créé une entreprise concurrente dans le domaine de l'IA, le milliardaire est accusé d'avoir manqué à son obligation fiduciaire envers Tesla

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 30/08/2024 à 19:16
Il a toujours été très accessible de faire un trucage avec photoshop ou gimp, à l'époque les gens étaient bien moins informé et il y a eu peu de désinformation.

La question de la responsabilité concernant les fake news IA, n'est pas a posé du côté de l'IA, des dev, ou autres. Elle est du côté de l'utilisateur.
Quelqu'un a parfaitement le droit de créer une fausse image et de la diffuser, par contre, l'intention de tromper et de manipuler est condamnable.

Cette évolution juridique et des mentalités qui tend à rendre irresponsable les utilisateurs (citoyens) est plus qu'inquiétante pour la démocratie.
Mieux vaudrait se concentrer sur l'enseignement de l'esprit critique, que sur la censure de modèle IA ...
2  0 
Avatar de
https://www.developpez.com
Le 16/08/2024 à 8:30
Gestion des filtres : Faut il censurer la génération d'images de l'IA comme OpenAI le fait avec ChatGPT ou laisser faire comme Elon Musk le fait avec Grok 2 ? Dans quelle mesure ?
Non, simplement. Libre aux différents réseaux sociaux et autres plateformes d'adapter leurs chartes d'utilisation.

Désinformation et contenus offensants : Comment pouvons-nous garantir que Grok ne propage pas de désinformation ou de contenus offensants ?
Alors ce n'est pas Grok, une intelligence artificielle qui propage de la désinformation mais des intelligences humaines, qui utilisent l'IA
Comment faire pour que l'utilisateur d'une plateforme ne propage pas de désinformation ou de contenus offensants ? J'ai 4 potentielles solutions mais elles ne sont évidemment pas exhaustive :
  • Avec une charte d'utilisation des plateformes de partage (réseaux sociaux, forums, etc..) et les sanctions qui vont avec en cas de non-respect.
  • En intégrant des outils de détection d'IA par exemple.
  • Les Notes de la Communauté sur X/Twitter fonctionnent relativement bien. Un contexte est souvent (toujours) apporté sur les fake news, y compris les images générées par IA. Les autres réseaux devraient s'en inspirer.
  • Et le plus important, la sensibilisation : Un utilisateur sensibilisé est un pilier de la sécurité collective.


Créativité humaine : Grok peut générer du contenu, mais comment préserver la créativité individuelle face à cette automatisation ?
En continuant à créer individuellement Les bibliothécaires, journalistes et éditeurs n'ont pas disparu avec l'expansion des moteurs de recherche comme Google à l'époque. Alors je pense que tout comme avec l'arrivée de Google, l'IA fera sans doute évoluer la manière de fonctionner de certains domaine (telle que la créativité individuelle) sans pour autant la faire disparaitre. Ce n'est qu'un outil que personne n'oblige à utiliser.
2  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 16/08/2024 à 11:29
Tout cela ressemble vraiment à une panique morale... Alors que dans les faits, les conséquences seront très limités. Le seul truc qui m’effraie avec la génération d'image est le risque de désinformation avec les deepfakes. Pour le reste, l'AI générative d'image est loin d'être la plus dangereuse. On devrait (et surtout ces activistes du dimanche) surtout s’inquiéter des risques de la surveillance algorithmique.

« Toutefois, ce problème a été résolu bien avant que ChatGPT ne soit accessible au public. Il est très inquiétant de constater que n'importe qui peut payer X 4 $ pour générer des images de Micky Mouse en train d'effectuer une fusillade de masse contre des enfants »
En quoi pouvoir générer des images de Micky Mouse en train d'effectuer une fusillade de masse contre des enfants représente un danger ?? Personne ne crois que Micky Mouse est un personnage réel...
1  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 16/08/2024 à 11:30
Citation Envoyé par OrthodoxWindows Voir le message
Personne ne crois que Micky Mouse est un personnage réel...
Ouais mais ça ne va pas plaire à Disney.
2  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 16/08/2024 à 21:09
Citation Envoyé par Ryu2000 Voir le message
Ouais mais ça ne va pas plaire à Disney.
Certes

D'ailleurs quand on y pense, les grosses multinationales de gestion des droits d'auteur (de Disney à Warner en passant par Sony) sont en train de se faire vraiment avoir ; pendant des années, on nous a fait ch*** avec le strict respect du droit d'auteur, désormais ces même pouvoir publiques deviennent très laxistes avec l'IA. La différence est que ce n'a jamais été des multinationales du numérique qui piratais du contenu... Alors qu'avec l'IA, les intérêts financiers ne sont plus les mêmes
1  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 23/08/2024 à 8:22
Citation Envoyé par Ryu2000 Voir le message
Il faut le temps que les lois se fassent, c'est un processus lent.
Je suis moins optimiste que toi là dessus.
Le problème n'est pas le temps législatif mais l'impunité de certains ou la capacité à répondre à ce système.

Je vais donner un exemple : il y a 7-8 ans les troupes d'improvisations théâtrale vers chez moi ont reçu des courriers ou des mails leur signalant qu'elles avaient violées les droits d'auteurs pendant certains de leurs évènements en diffusant au public des musiques qui n'étaient pas libre de droits (de mémoire on leur réclamait 75€ par évènements sur environ 1 an soit entre 300 et 1000€).
Certaines troupes ont décidé de payer vite pour éviter tout problème.
D'autres ont décidé de contester collectivement chaque évènement via courrier d'un avocat.
Une partie des évènements ont été retiré de la liste mais pour d'autres on a reçu la liste des musiques diffusées avec les heures de diffusion.
Je n'ai pas le détail de la suite mais s'en est suivi plusieurs échanges entre avocats pour que finalement ils renoncent à toute demande.

Là où je veux en venir est que si tu as les moyens (en l'occurrence un improvisateur avocat) et que tu pousses l'adversaire à dépenser plus en te répondant qu'il n'y gagnera à la fin, les poursuites sont abandonnées.
Les puissants ont quasiment moyens illimités sur ce genre de sujets stratégique pour eux (regarde les amendes données aux GAFAM qui se répètent tous les ans sans que rien ne change).
Ils sont factuellement au dessus de la loi parce qu'il est plus rentable pour eux de ne pas la respecter et de payer l'amende que de la respecter.
1  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 31/08/2024 à 20:50


Mais quand même, quand je lis ceci:

Citation Envoyé par OrthodoxWindows Voir le message
Surtout pas, il s'agit d'une mesure totalement absurde, qui ne peut que conduire à la mort de l'IA générative. Même des IA très modérés peuvent générer du contenu pouvant tomber sous le coup de la loi, c'est impossible d'empêcher cela.
Je suis dubitatif de cette réponse. Si un "produit" (ici l'IA), fournit un "service" défaillant (ici, les réponses que l'IA donne), il faut bien avoir un responsable vers qui pouvoir se retourner pour avoir une "indemnisation" en cas de mauvais fonctionnement dudit "service".

Parce que sinon, c'est la porte ouverte à tous les abus.

Si tu vas au restaurant, que tu commandes un steak au poivre, et qu'on te sers une pizza avariée, tu vas la manger sans rien dire ? Ou bien tu vas réclamer au "responsable" de ce restaurant des explications ?

Si tu vas à l'hopital pour te faire retirer un furoncle, et qu'on te retire un testicule à la place, là non plus tu ne vas rien dire ?

Si c'est le cas, je ne peux que de t'applaudire Tu est le plus tolérant du monde.


Je ne vois pas pourquoi on devrait "absoudre" de toute responsabilités le "responsable" d'une IA qui "Hallucine" (je ne parle pas des développeurs, mais des éditeurs de ces IA, ceux qui gagnent du fric en vomissant un gloubiboulga en remixant ce qu'ils ont volé un peu partout sur le web).

Et si cela ne peut que conduire à la mort de l'IA générative, ça n'est pas le soucis, ça ne sera ni la première ni la dernière révolution qui ne mène nulle part. Le monde continuera de tourner.

Citation Envoyé par OrthodoxWindows Voir le message
Pour le reste, je ne vois pas en quoi Grok est particulièrement un problème, vu qu'il existe plusieurs modèles open-source, de plus en plus performant.

Evidemment, si tu trouve normal que l'IA peut générer n'importe quoi, sans être responsable de rien, je comprend que tu ne vois pas le soucis avec Grok.

Ce n'est pas le soucis d'une IA ou d'une Autre, c'est tout simplement une "technologie" qui n'est pas encore au point, qu'on balance dans la nature en expérant qu'elle ne produise pas plus de problèmes qu'elle n'en résoud.

Si tu faisais de l'humour, je m'excuse sinon je vais tenter de rester "zen"

BàV et Peace & Love.
2  1 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 31/08/2024 à 21:25
Citation Envoyé par OuftiBoy Voir le message
Je suis dubitatif de cette réponse. Si un "produit" (ici l'IA), fournit un "service" défaillant (ici, les réponses que l'IA donne), il faut bien avoir un responsable vers qui pouvoir se retourner pour avoir une "indemnisation" en cas de mauvais fonctionnement dudit "service".

Parce que sinon, c'est la porte ouverte à tous les abus.
Cite moi un seul modèle d'IA générative à usage généraliste incapable de générer un contenu potentiellement passible de justice. Sachant que pour être dans le juste, il faut aussi inclure ce qui pourra être illégal dans le futur et dans certains régimes autoritaires.
De plus, la comparaison avec la pizza avariée n'a aucun sens, car là c'est plutôt le client lui-même qui réclame une pizza avarié. En cas d'IA générative, tenir l'entreprise/le développeur pour responsable de la génération d'un contenu est aussi absurde que de tenir pour responsable le fabricant d'une voiture à cause d'un conducteur ayant délibérément foncé sur un piéton (bah oui, on peu toujours dire que le fabricant avais juste à empêcher que la situation puisse se produire )


Evidemment, si tu trouve normal que l'IA peut générer n'importe quoi, sans être responsable de rien, je comprend que tu ne vois pas le soucis avec Grok.

Ce n'est pas le soucis d'une IA ou d'une Autre, c'est tout simplement une "technologie" qui n'est pas encore au point, qu'on balance dans la nature en espérant qu'elle ne produise pas plus de problèmes qu'elle n'en résoud.
Visiblement tu n'a pas compris mon propos : un modèle open-source, c'est un modèle avec le code-source distribué par le développeur, sous une licence libre. A ce moment là, le développeur ne peux pas être responsable du code qu'il publie, puisque la licence décharge le développeur de responsabilités ! Ou même l'entreprise, si c'est une entreprise qui publie le code source.

Et la seul fois où un tribunal a réussi à rendre illégal un code source (DeCSS), ça a donné ça.
1  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 31/08/2024 à 22:40
Citation Envoyé par OrthodoxWindows Voir le message
Cite moi un seul modèle d'IA générative à usage généraliste incapable de générer un contenu potentiellement passible de justice.
Ben justement, il n'y en a pas, et c'est bien là le soucis. Toutes les IA déconnent à un moment ou l'autre.

Citation Envoyé par OrthodoxWindows Voir le message
Sachant que pour être dans le juste, il faut aussi inclure ce qui pourra être illégal dans le futur et dans certains régimes autoritaires.[/B]
Tu connais peut-être le futur , tu connais peut-être madame Irma , moi pas. Si déjà les IA Générative pouvaient sortir quelque chose qui est correcte/légal dans le présent, ça serait déjà pas mal, mais ce n'est pas encore le cas. Je serais le premier à être contant que l'IA aide l'humain a être débarrassé de certaines tâches sans grand intérêt, mais ce n'est pas encore le cas. J'aimerais que le FSD de Tesla soit aussi bon que ce qui est promis, mais ce n'est pas le cas.

Citation Envoyé par OrthodoxWindows Voir le message
De plus, la comparaison avec la pizza avariée n'a aucun sens, car là c'est plutôt le client lui-même qui réclame une pizza avarié.
Que dire, as-tu vraiment lu ma réponse précédente ? Je parlais d'un gars qui va dans un resto, commande un steak au poivre, mais reçois une pizza avariée. Je ne vois pas comment tu peux dire que c'est le client qui a demandé une pizza avariée.

Citation Envoyé par OrthodoxWindows Voir le message
En cas d'IA générative, tenir l'entreprise/le développeur pour responsable de la génération d'un contenu est aussi absurde que de tenir pour responsable le fabricant d'une voiture à cause d'un conducteur ayant délibérément foncé sur un piéton (bah oui, on peu toujours dire que le fabricant avais juste à empêcher que la situation puisse se produire )
Désolé, mais il me semble que tu t'égard. Il n'y a aucun rapport. Dans le cas que tu cites, bien sûr que le vendeur de la voiture n'est pas responsable, je n'ai jamais dis ou même suggérer cela.

Si le conducteur conduit la voiture vers un piéton volontairement, c'est lui le responsable.
Par contre, si en tournant le volant à droite, la voiture va à gauche, ce n'est pas le conducteur qui est responsable, mais bien le constructeur.

Quand un humain fait une erreur, il est en responsable.
Quand une IA fait une erreur (on parle d'hallucination pour adoucir le soucis), elle est responsable, et ceux qui l'on vendue le sont.

Citation Envoyé par OrthodoxWindows Voir le message
Visiblement tu n'a pas compris mon propos : un modèle open-source, c'est un modèle avec le code-source distribué par le développeur, sous une licence libre. A ce moment là, le développeur ne peux pas être responsable du code qu'il publie, puisque la licence décharge le développeur de responsabilités ! Ou même l'entreprise, si c'est une entreprise qui publie le code source.
Merci, je sais ce qu'est l'open-source Mais je ne vois pas ce que ça change. Je ne parle pas d'un projet lambda ou de candy-crush. Si pour se dédouaner de toute responsabilité, il suffit d'écrire un petit mot disant qu'on est pas responsable, je vais vite écrire un petit mot en bas de ma déclaration d'impôt disant que je ne suis pas responsable de l'avoir mal remplie, et d'avoir éluder l'impôt, et hop, tu crois que ça va passer crème ?

Donc tu es d'accord que personne n'est jamais responsable de rien ? Si je met en vente un produit qui ne fait pas ce qu'il est sensé faire, je ne suis pas responsable ? Donc pout toi, le Boeing MAX qui a causé la mort de centaines de personnes parce mal conçu, y'a pas de responsable ? Parce que les plans de l'avion sont disponibles sur le net ? Vas dire ça aux familles des défunts. Il y a quelques années, Perrier avait fourni un lot de bouteille avec de l'essence dedans, et bien oui, ils étaient responsables et l'on reconnu et augmenté la sécurité de leur chaine de production. Mais toi, avant de boire quoi que ce soit, tu fais une analyse chimique du produit ? Et tu fais ça dans tous les domaines ? Chapeau tu es omniscient.

BàT et Peace & Love.
1  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 01/09/2024 à 6:58
Citation Envoyé par OrthodoxWindows Voir le message
Le problème est qu'on ne parle pas du même problème.
C'est possible, c'est en tout cas agréable de pouvoir discuter sereinement.

Citation Envoyé par OrthodoxWindows Voir le message
Tu semble parler des hallucinations, je parle du contenu potentiellement illégal que peu générer une IA après demande de l’utilisateur en ce sens.
Le soucis, c'est que la personne qui fait une demande à l'IA, sans aucune volonté de tomber dans l'illégalité, n'est pas forcément en mesure de savoir si le résultat qu'elle obtient est légal ou pas.

Oui, les hallucinations sont la preuve que l'IA n'est pas encore prête a être utilisée partout. Il y'a certes des "niches" où elle peut déjà rendre service, comme par exemple dans l'analyse de radiographie pour détecter des tumeurs. Mais ce n'est pas de l'IA, ça existe depuis un bon moment, c'est juste un traitement d'images, qui peut aider à faire un meilleur diagnostic.

Citation Envoyé par OrthodoxWindows Voir le message
Je n'ai pas compris immédiatement, car le dernier article ne parle pas des hallucinations, hors c'était celui ci que je commentais au départ. Concernant l'open-source : techniquement, une hallucination ne peux pas être contenu dans un code brut. Cela survient après, lors de la phase d'apprentissage. Le "responsable" est donc celui qui a formé le modèle, jamais le développeur.
C'est effectivement un autre problème avec l'IA. Elle ne peut fournir en sortie qu'une probabilité qui dépend de la qualité des données qu'elle a reçu lors de son apprentissage. Et c'est un très gros problème qui a de multiple facettes:

  • - D'où viennent ces données ? De ce que j'en sais, on bourre l'IA d'une floppée de contenus obtenu sur Internet, et très souvent illégalement. L'ancien PDG de Google a même déclarer qu'il fallait "voler" ces informations, et que ce qu'elle rapporteront suffira largement a payer des avocats pour régler les éventuelles soucis de droit d'auteur. Je trouve que c'est des méthodes de voyous. Le plus "riche", le plus "fort', imposera sa loi aux autres. Ce n'est pas un monde dans lequel je veux voir grandir mes enfants et petit-enfants.

    - Ces données sont elles "validées" avant d'être injectées dans le système d'apprentissage ? La masse de donnée qu'il faut pour entrainer une IA est tellement énorme que c'est impossible a faire. Il faudrait des milliers de spécialistes sur des milliers de sujets. Ce n'est humaine pas possible.

    - Si l'IA est principalement fournie d'info venue d'internet, sans vérification, ça ne m'étonne pas qu'elle hallucine assez souvent. Et ça peut être très dangereux pour la personne qui obtient ces informations. Elle ne sait peut-être pas détecter que si la réponse est fausse et même très dangereuse si elle suit aveuglément ce que lui répond une IA.

    - Il y'a des bonnes infos sur internet, et d'autres pour le moins douteuse. On peut trouver la bonne info, dans un domaine particulier, si seulement on maîtrise déjà assez bien le sujet. Quand je vais sur StackOverflow, je sais ce que je cherche et j'ai assez d'expérience pour "trouver" la bonne information, parce que j'ai de solides bases niveau développement. Par contre, si je dois chercher des informations sur une question de chimie, j'aurais bien du mal a m'informer correctement et de comprendre ce que je lis.

    - Pareil pour le code généré par l'IA. Il faut savoir "remarquer" quand l'IA déconne. Nous, en temps que développeur, on peut éventuellement remarquer ces erreurs, mais même le meilleur développeur au monde ne peux pas connaître et maîtrisé tous les langages existant.

    - Concernant les "droits d'auteur", et savoir si l'information peut être utilisée ou pas, cela ne doit pas être évident non plus, et ça peut mettre des entreprises dans des galères pas possible, car celui qui "gagnera" sera à 99% celui qui sait se payer les meilleurs avocats, ou faire trainer les procédures pour étouffer lentement une petite boite par rapport à des des GAFAM.

    - Si on parle de développements, si on se met à se "reposer" sur l'IA, il n'y aura bien vite plus assez de développeurs assez compétant pour vérifier le code produit. Parce que ce n'est plus du développement, ça n'a plus rien de très passionnant, et ça n'attirera plus personne.

    - Perso, si le métier de développeur devient un simple métier de "surveillance", ça enlève toute ce qui est intéressant dans le métier, et ce sera sans moi.


Quand à savoir qui est responsable de quoi en cas de gros soucis, ce sera encore une fois une bataille d'avocats, que seul les plus gros pourront en supporter le coup. Quand Einstein a fait ses traveaux sur l'énergie atomique, je ne pense pas que son intention était de fabriquer des bombes atomique et encore moins de pulvériser des milliers d'innocents. Il n'est pas responsable. Le développeur qui "construit" une méthode permettant une forme d'IA n'est pas responsable non plus, mais la personne qui va utiliser ce travail, cette méthode, est lui responsable. Et le monde est ainsi fait que ce sont rarement les vrais responsables qui chute. On trouve toujours bien un pauvre gus pour tout lui mettre sur le dos.

Il y'a aussi le problème que des "exemples" ont été mis en ligne il y a plus de 10 ou même 20 ans, pour des raisons disons de partage de savoir, avec une idée "académique". Que tous cela soit pompé 20 ans plus tard et en plus revendu, c'est une pillule difficile a avaler pour celui qui a prit le temps de poster des informations de qualité.

Un autre "effet de bord", c'est que puisse que l'on sait maintenant que ce qu'on poste sera utilisé par d'autres à des fins mercantile, l'information de qualité deviendra de moins en moins disponible, les gens n'aime pas trop qu'on se foute de leur geule. C'est la panique chez StackOverflow, car plusieurs très bon dévellopeurs y postaient des réponses de qualité, gratuitement, et que maintenant StackOverflow essaye de moneyer tout ce savoir. Il empeche même que l'on efface des réponses ou qu'on supprime un compte. C'est encore une fois des méthodes que je ne peux cautionner.

Enfin, puisque l'IA ne sait que "reproduire" sur base d'un "existant", le risque est grand que tout deviennent fade et sans évolutions.

Voilà mon avis sur l'IA qui n'engage que moi.

BàT et comme toujours, Peace and Love.
1  0