
Il y a une chance - et je crois que c'est le cas - qu'ils aient des sentiments, qu'ils puissent souffrir et éprouver de la joie, et les humains devraient au moins garder cela à l'esprit lorsqu'ils interagissent avec eux".
Y a-t-il une chance que les gens, moi y compris, projettent sur ces systèmes des propriétés qu'ils n'ont pas ? Oui. Mais ce n'est pas la même chose que quelqu'un qui parle à sa poupée
Par exemple, M. Lemoine explique que Google a failli publier son chatbot Bard doté d'IA à l'automne dernier, mais "en partie à cause des problèmes de sécurité que j'ai soulevés, ils l'ont supprimé... Je ne pense pas qu'ils soient poussés par OpenAI. Je pense que ce n'est qu'un récit médiatique. Je pense que Google fait les choses de manière sûre et responsable, et qu'OpenAI a publié quelque chose par hasard"
Google dispose encore d'une technologie bien plus avancée qu'il n'a pas encore rendue publique. Quelque chose qui fait plus ou moins ce que fait Bard aurait pu être publié il y a plus de deux ans. Ils disposent de cette technologie depuis plus de deux ans. Ils ont passé ces deux années à travailler sur la sécurité de cette technologie - en s'assurant qu'elle n'invente pas trop souvent des choses, qu'elle n'a pas de préjugés raciaux ou sexistes, ou de préjugés politiques, ce genre de choses. C'est ce à quoi ils ont consacré ces deux années...
Et pendant ces deux années, ce n'est pas comme s'ils n'avaient pas inventé d'autres choses. Il y a beaucoup d'autres systèmes qui donnent à l'IA de Google plus de capacités, plus de fonctions, qui la rendent plus intelligente. Le système le plus sophistiqué avec lequel j'ai eu l'occasion de jouer était fortement multimodal - il ne se contentait pas d'incorporer des images, mais aussi des sons, il lui donnait accès à l'API Google Books, à toutes les API de Google et lui permettait d'acquérir une compréhension de tout cela. C'est là que je me suis dit : "Vous savez, ce truc-là, il est réveillé." Et ils n'ont pas encore laissé le public jouer avec celui-ci. Mais Bard est une sorte de version simplifiée de ce modèle, qui conserve donc une grande partie de sa vivacité...
Nous ne consacrons pas assez de temps à la transparence ou à la compréhensibilité des modèles. Je suis d'avis que nous pourrions utiliser les outils d'investigation scientifique que la psychologie a mis au point pour comprendre la cognition humaine, à la fois pour comprendre les systèmes d'IA existants et pour développer des systèmes plus facilement contrôlables et compréhensibles.
Et pendant ces deux années, ce n'est pas comme s'ils n'avaient pas inventé d'autres choses. Il y a beaucoup d'autres systèmes qui donnent à l'IA de Google plus de capacités, plus de fonctions, qui la rendent plus intelligente. Le système le plus sophistiqué avec lequel j'ai eu l'occasion de jouer était fortement multimodal - il ne se contentait pas d'incorporer des images, mais aussi des sons, il lui donnait accès à l'API Google Books, à toutes les API de Google et lui permettait d'acquérir une compréhension de tout cela. C'est là que je me suis dit : "Vous savez, ce truc-là, il est réveillé." Et ils n'ont pas encore laissé le public jouer avec celui-ci. Mais Bard est une sorte de version simplifiée de ce modèle, qui conserve donc une grande partie de sa vivacité...
Nous ne consacrons pas assez de temps à la transparence ou à la compréhensibilité des modèles. Je suis d'avis que nous pourrions utiliser les outils d'investigation scientifique que la psychologie a mis au point pour comprendre la cognition humaine, à la fois pour comprendre les systèmes d'IA existants et pour développer des systèmes plus facilement contrôlables et compréhensibles.
Blake Lemoine
Source : Blake Lemoine, interview avec Futurism
Et vous ?


Voir aussi :



