IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Stephen Hawking a prévenu en 2014 que le développement d'une IA complète pourrait sonner le glas de l'espèce humaine,
Il avait affirmé que les ordinateurs surpasseraient les humains d'ici 100 ans

Le , par Bill Fassinou

2PARTAGES

8  0 
Stephen Hawking, physicien théoricien britannique aujourd'hui décédé, avait vivement critiqué l'IA, mettant en garde contre "les risques profonds" qu'elle pourrait faire courir à l'humanité. Il a déclaré en 2014 que le développement d'une IA complète (il fait probablement allusion à une intelligence générale artificielle) pourrait sonner le glas de l'espèce humaine. Malgré ses inquiétudes, Hawking s'est pourtant appuyé sur une forme basique de l'IA pour se déplacer et parler convenablement en raison d'une maladie dont il a souffert pendant des décennies. Les critiques affirment toutefois que l'IA va profondément bouleverser l'humanité, mais ne l'anéantira pas.

Stephen Hawking (1942-2018) est un physicien théoricien, cosmologiste et auteur britannique qui a apporté d'importantes contributions au domaine de la physique, en particulier dans l'étude des trous noirs et de la nature du temps. Il est également connu pour son livre à succès "Une brève histoire du temps", qui explique des concepts scientifiques complexes à un public populaire. Il a appris à 21 ans qu'il souffrait d'une sclérose latérale amyotrophique (SLA), une forme rare de maladie des neurones moteurs qui l'a progressivement laissé paralysé et incapable de parler. Mais malgré ses limitations physiques, il a continué à travailler et à communiquer.

Bien sûr, tout cela a été rendu possible grâce à des outils issus des premières années de l'IA : il s'est appuyé sur un dispositif de génération de la parole, qu'il utilisait pour donner des conférences et écrire des livres. Cet appareil, appelé "Equalizer", a été mis au point par une société californienne appelée Words Plus. Pour faire court, le gadget permettait à Hawking de sélectionner des mots et des phrases sur un écran d'ordinateur à l'aide d'un commutateur manuel, qu'il pouvait actionner grâce à ses fonctions motrices limitées. Une fois qu'il avait sélectionné un mot ou une phrase, l'appareil générait une voix synthétique qui prononçait les mots à haute voix.


Stephen Hawking

Hawking a pu expérimenter l'un des cas d'utilisation de l'IA, mais quelques années avant sa mort, il a mis en garde contre les dangers potentiels que la technologie pourrait représenter pour l'humanité. Dans une interview accordée à la BBC en 2014, Hawking a déclaré que le développement d'une IA complète pourrait "sonner le glas de l'espèce humaine". Bien qu'il utilisait lui-même une forme élémentaire d'IA, il a averti que la création de systèmes intelligents qui rivalisent avec l'intelligence humaine ou la surpassent pourrait être désastreuse pour l'homme. Rappelons qu'il a utilisé son dispositif de communication de 1985 à sa mort le 14 mars 2018.

« Les humains, qui sont limités par une évolution biologique lente, ne pourraient pas rivaliser et seraient supplantés », a ajouté Hawking. Dans son dernier livre, "Brief Answers to the Big Questions", publié après sa mort en 2018, Hawking a affirmé que les ordinateurs "dépasseront probablement les humains en matière d'intelligence" d'ici 100 ans. « Nous pourrions être confrontés à une explosion de l'intelligence qui aboutirait finalement à des machines dont l'intelligence dépasserait la nôtre de plus que la nôtre ne dépasse celle des escargots », a-t-il écrit dans son livre. Il a appelé à former l'IA pour qu'elle s'aligne systématiquement sur les objectifs humains.

En outre, il a averti que ne pas prendre au sérieux les risques associés à l'IA pourrait être "la pire erreur que l'humanité ait jamais faite". Les remarques d'Hawking font écho aux préoccupations des leaders technologiques Elon Musk et Steve Wozniak, qui ont appelé à une pause dans la construction de systèmes d'IA plus puissants que le grand modèle de langage (LLM) GPT-4 d'OpenAI dans une lettre ouverte publiée en mars 2023. La lettre a été publiée par l'organisation à but non lucratif Future of Life Institute, une association qui cherche à diminuer les risques existentiels menaçant l’humanité, et évoque des "risques existentiels" pour l'humanité.

« Les systèmes d'IA dotés d'une intelligence compétitive avec celle des humains peuvent présenter des risques profonds pour la société et l'humanité, comme le montrent des recherches approfondies et comme le reconnaissent les principaux laboratoires d'IA. Les systèmes d'IA contemporains deviennent aujourd'hui compétitifs pour les tâches générales, et nous devons nous poser la question : devons-nous laisser les machines inonder nos canaux d'information de propagande et de mensonges ? Et devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? », peut-on lire dans la lettre. Mais beaucoup ont rejeté le moratoire.

Les signataires de la lettre ont invoqué les risques d'un emballement de l'IA pour la civilisation humaine. Cependant, d'autres acteurs de l'industrie, dont Bill Gates et LAION, ont trouvé l'idée d'une pause "ridicule". Parmi les cosignataires figurent Emad Mostaque, PDG de Stability AI, des chercheurs de DeepMind (filiale d'Alphabet), et d'autres experts de l'IA comme Yoshua Bengio, souvent considéré comme l'un des "parrains de l'IA", et Stuart Russell, pionnier de la recherche dans ce domaine. Selon le registre de transparence de l'Union européenne, l'association Future of Life Institute est principalement financé par la Fondation Musk.

Les autres bailleurs de fonds de l'association sont le groupe Founders Pledge, basé à Londres, et la Silicon Valley Community Foundation. La lettre est arrivée quelques jours après qu'Europol, la police de l'UE, a fait part lundi 27 mars 2023 de ses préoccupations éthiques et juridiques sur les modèles d'IA avancés tels que ChatGPT et Bard. Elle a mis en garde contre l'utilisation abusive potentielle du système dans des tentatives de phishing, de désinformation et de cybercriminalité. Dans le même temps, le gouvernement britannique a dévoilé des propositions en vue d'élaborer un cadre réglementaire adaptable autour de l'IA.

L'approche du gouvernement britannique répartirait la responsabilité de la gestion de l'IA entre les organismes de réglementation des droits de l'Homme, de la santé et de la sécurité, et de la concurrence, plutôt que de créer un nouvel organisme dédié à la technologie. Par ailleurs, l'UE pourrait introduire prochainement une réglementation très stricte en ce qui concerne le développement et le déploiement des chatbots d'IA. Les nouvelles règles, qui seraient en cours de préparation au Parlement européen, proposeraient d'obliger les fabricants de chatbots d'IA à révéler s'ils utilisent du matériel protégé par des droits d'auteur.

Cela pourrait permettre aux créateurs de contenu de bénéficier d'une redevance de droit d'auteur. L'IA générative a donné lieu à de nombreuses plaintes en matière de violation de droit d'auteur et l'UE veut y mettre un terme. À mesure que la loi sur l'IA évolue, les chatbots pourraient faire l'objet d'une surveillance accrue.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des mises en garde de Stephen Hawking ?

Voir aussi

Elon Musk et un groupe d'experts en IA demandent à tous les laboratoires d'IA d'interrompre la formation de systèmes d'IA plus puissants que le GPT-4, citant des risques pour la société

Elon Musk aurait acheté des milliers de GPU pour un projet d'IA générative au sein de Twitter, des critiques suggèrent qu'il souhaitait une "pause" afin de rattraper son retard sur OpenAI

Geoffrey Hinton, une des figures de proue de l'apprentissage profond, quitte Google pour être libre de parler des dangers de l'IA, dont la désinformation et l'élimination des humains par les robots

L'UE envisagerait des règles très strictes pour les chatbots dans le cadre de son projet de loi sur l'IA, elle devrait exiger la divulgation de l'utilisation du matériel protégé par le droit d'auteur

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anordem
Nouveau membre du Club https://www.developpez.com
Le 03/05/2023 à 7:41
Musk qui demande une pause alors qu'il est lui-même en train de développer une IA.

Le problème dans cette technologie c'est qu'elle contient le terme "intelligence". Si on l'enlève, ce n'est qu'un programme informatique. Jusqu'où peut-on donner un pouvoir décisionnel autonome à un programme informatique ?
4  0 
Avatar de Prox_13
Membre éprouvé https://www.developpez.com
Le 09/05/2023 à 12:34
Citation Envoyé par Bill Fassinou Voir le message
Quel est votre avis sur le sujet ?
L'IA est un outil qui est plus facilement applicable au domaine civil que ne l'est la bombe atomique. Je pense que les impacts seront peut-être même plus important que ceux de la bombe nucléaire à notre échelle. Difficile à dire sans avoir d'exemple concret d'une application suffisamment révolutionnaire pour être remarquée.
La seule chose que je peux affirmer sans me tromper est que cela semble bien plus prometteur que le métaverse ne l'a jamais été.

Citation Envoyé par Bill Fassinou Voir le message
Que pensez-vous des propos de Warren Buffett ?
Je pense qu'on devrait cesser de s’intéresser à l'avis de ce pauvre monsieur sur beaucoup de sujets qui ne le concernent pas. Il n'est évidemment pas plus renseigné sur l'IA que n'importe qui peut l’être, donc difficile de donner du crédit autrement que par sa réputation. De plus, ses avis ne peuvent être que biaisés par sa position; En temps qu'investisseur, il a tout intérêt à défendre ses propres intérêts, ce qui rend difficile à mettre sa franchise/neutralité en évidence.
Ceci est valable pour Musk, Trump et la plupart des autres mégalomanes un peu trop bavards pour être honnêtes.

Les propos de ces gens-là sont leur sont beaucoup trop utiles pour qu'ils ratent une occasion de les utiliser.
2  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 09/05/2023 à 15:07
Citation Envoyé par Prox_13 Voir le message
Je pense que les impacts seront peut-être même plus important que ceux de la bombe nucléaire à notre échelle. Difficile à dire sans avoir d'exemple concret d'une application suffisamment révolutionnaire pour être remarquée.
Tu as besoin d'exemples?

1. Microsoft a annoncé le gel de nouvelles embauches. Raison? Grâce à l'usage de l'IA, Microsoft pense pouvoir se passer de... 7 800 salariés!!!

2. Le groupe de médias allemand "Axel Springer" a annoncé en mars 2023 le licenciement de journalistes dans ses journaux "Bild" et "Die Welt" pour les remplacer par de l'IA. Objectif annoncé? Le groupe qui emploie 18 000 personnes dont 3 400 journalistes veut «améliorer ses bénéfices d'environ 100 millions d'euros au cours des trois prochaines années».

3. Ce même mois de mars 2023, CNET USA a annoncé avoir licencié 10% de ses journalistes (soit 12 personnes) pour les remplacer par de l'IA. L'ex-rédactrice en chef de longue date Connie Guglielmo a changé de poste et travaille désormais en tant que “vice-présidente senior de la stratégie de contenu IA”. Les 90% restants devraient peut-être commencer à se chercher un job...

4. Août 2022, à Austin, aux États-Unis, la société Accenture a licencié 60 salariés. Pour quel motif? Aucun en particulier. Lorsqu’ils ont demandé à en savoir plus sur les raisons de leur renvoi, les ex-collaborateurs ont appris de la bouche de leurs responsables qu’ils avaient été sélectionnés «au hasard» par un algorithme d'IA

5. En août 2021, une entreprise russe, Xsolla, avait remercié 150 collaborateurs, soit un tiers de ses effectifs, après que son algorithme IA ait analysé leurs mails, leurs activités et leur taux de présence sur le lieu de travail et jugé qu’ils n’étaient «pas assez engagés et improductifs».

6. Amazon est lui aussi coutumier du phénomène: une IA est chargée d’envoyer une notification de licenciement aux livreurs qu’elle juge les moins performants, d’après les informations de Bloomberg (https://www.bloomberg.com/news/featu...are-losing-out).

Est-ce que d'autres exemples sont nécessaires pour voir dans quel sens l'intelligence artificielle va améliorer le vie de monsieur et de madame ToutLeMonde???
2  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 09/05/2023 à 16:24
7. IBM a annoncé lors de ses résultats du premier trimestre 2023 licencier 7800 employés remplaçables par l'IA
1  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 03/05/2023 à 7:32
Citation Envoyé par Anselme45 Voir le message
...
4. il a dit en 2014 (il y a 9 ans) dans les 100 prochaines années. On est à 9% de sa deadline.
Si c'est le messie elle n'arrivera pas maintenant.
5. C'est pas à nous qu'il faut le dire mais à Altman, Musk et autres CEO de grandes entreprises qui se font une course à l'IA tout en disant que c'est dangereux....
0  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 04/05/2023 à 9:33
Citation Envoyé par Anordem Voir le message
Musk qui demande une pause alors qu'il est lui-même en train de développer une IA.

Le problème dans cette technologie c'est qu'elle contient le terme "intelligence". Si on l'enlève, ce n'est qu'un programme informatique. Jusqu'où peut-on donner un pouvoir décisionnel autonome à un programme informatique ?
Ce n'est pas le terme "intelligence" qui est le problème (Là ce n'est qu'un débat de philosophe déconnecté du monde réel), le vrai problème de l'IA est ce qui va en être fait dans un monde capitaliste où seul le profit immédiat compte et où le bien de l'être humain ne compte pas!!!
1  1 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 10/05/2023 à 19:26
Citation Envoyé par Fagus Voir le message
Donc, oui licenciés, mais ils retrouveront "quelque chose" (sans trop rentrer dans les comparaisons de modèles de société).

Ensuite, si on parle de l'IA générative, pour le contenu textuel c'est juste du baratin, et pour les images, c'est juste des illustrations (vs du photo reportage). (ok, pour les illustrateurs c'est mauvais)
Si on croit un minimum au marché, à un moment, il faut payer. On ne peut avoir de la presse gratuite et du contenu de qualité. Et si c'est de la presse payante, les gens n'ont qu'à résilier pour de la presse qui paye des journalistes.
Il va falloir revoir ta vision de l'IA!!!

L'IA va être une concurrence à tous les métiers du tertiaire qui représentent 87,8 % des jobs occupés par les femmes et 65,1 % des jobs occupés par les hommes (chiffres officiels de l'insee). L'IA peut déjà remplacer les avocats ou les médecins dans leur diagnostics, les journalistes, les secrétaires, les réceptionnistes, les conseillers à la clientèle, les agents de support, etc, etc, etc... Les seuls qui ne seront jamais remplacé par l'IA sont les manuels qui font le sale boulot style égoutiers, videurs de poubelle et autres...

Mais bien sûr, les universitaires vont se faire un plaisir d'occuper des jobs payés 5 dollars/heure!!!

Je suis d'ailleurs sûr que tu es personnellement prêt à quitter ton siège bien au chaud derrière ton écran d'ordinateur pour le job envié de videur de poubelles debout derrière un camion des services de voirie de ta ville... Mais attention, il faudra te bouger les fesses pour obtenir le job parce qu'il va y avoir de la concurrence pour ce genre de job inaccessible aux IA!!!
0  0 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 11/05/2023 à 0:09
Citation Envoyé par Anselme45 Voir le message
Il va falloir revoir ta vision de l'IA!!!

L'IA va être une concurrence à tous les métiers du tertiaire qui représentent 87,8 % des jobs occupés par les femmes et 65,1 % des jobs occupés par les hommes (chiffres officiels de l'insee). L'IA peut déjà remplacer les avocats ou les médecins dans leur diagnostics, les journalistes, les secrétaires, les réceptionnistes, les conseillers à la clientèle, les agents de support, etc, etc, etc... Les seuls qui ne seront jamais remplacé par l'IA sont les manuels qui font le sale boulot style égoutiers, videurs de poubelle et autres...

Mais bien sûr, les universitaires vont se faire un plaisir d'occuper des jobs payés 5 dollars/heure!!!

Je suis d'ailleurs sûr que tu es personnellement prêt à quitter ton siège bien au chaud derrière ton écran d'ordinateur pour le job envié de videur de poubelles debout derrière un camion des services de voirie de ta ville... Mais attention, il faudra te bouger les fesses pour obtenir le job parce qu'il va y avoir de la concurrence pour ce genre de job inaccessible aux IA!!!
Déjà, de quoi parle-t-on ? De l'IA d'aujourd'hui ou de celle d'un futur indéterminé ?

Je pense aussi qu' "un jour" on aura une IA généraliste aux performances supra-humaines, mais aujourd'hui, ce n'est pas le cas.

Alors, m'expliquer qu'aujourd'hui, l'IA menace tout métier sauf les égoutiers et que le plus haut salaire sera 5$/h c'est aller trop vite.

- déjà, le jour où on pourra en effet remplacer toute tâche humaine par une machine à service identique, ce sera la Révolution (dans le sens nouveau cycle). Je ne vois pas pourquoi tout le monde sera ramené à la pauvreté, alors justement que la productivité aura explosé (avec des machines qui bossent 24h/24h à une vitesse inhumaine). Au contraire, on aura un excès de richesses à partager. Si on ramenait le salaire max de tout le monde à 5$ avec des prix égaux toutes choses égales par ailleurs, je ne vois pas d'ailleurs qui pourrait payer les biens onéreux. Ou bien, si tout l'argent était concentré dans une caste infime de manière totalement inégalitaire, ce serait une cause de révoltes générales.

- deuxio, j'aime pas trop l’argument d'autorité mais je vais m'en servir. à propos de aujourd'hui " L'IA peut déjà remplacer les avocats ou les médecins dans leur diagnostics" : il se trouve que je suis justement dans le domaine de la santé, que je ne suis programmeur que du dimanche, et que mon vrai métier c'est de faire des diagnostics... Vers 2015, les pontes de l'IA de mon métier avaient déjà enterré la filière sous 5 ans avec la techno actuelle et je ne les ai pas cru, à raison.
Contrairement à ce qu'on peut croire, pour faire des bons diagnostics, il y a une importante culture à posséder, il faut raisonner de manière hypothético-déductive, et il faut connaître les données acquises et à jour de la science et il faut avoir une vision globale du patient et de tout son dossier, et pour les cas prises en charge compliquées les cas des patients sont discutés en réunion avec 6 ou 7 spécialités médicales autour de la table.

Je connais relativement le niveau de l'IA dans mon domaine précis et les performances sont éventuellement bonnes pour une question très restreinte, comme un seul diagnostic précis parmi les milliers. Ex, une IA peut dire si un os est cassé, en ratant les cas peu fréquents d'os cassés (car pas assez entraînée) et en faisant plein de faux positifs, et ignorant les autres problèmes éventuellement présents. Pour les maladies rares, il a des milliers de cas pour lesquels il n'existe par définition aucune donnée abondante pour former les modèles.

L'exemple le plus emblématique c'est la covid. Il y a eu des tonnes de projets d'IA pour le diagnostic avec des révolutions annoncées un peu vite. J'ai assisté aux conférences de synthèse sur la réalité après quelques années de recul. Ce fut un gros flop. Malgré des données gigantesques et l'argent abondant, AUCUN de ces projets n'a eu les performances diagnostiques utilisables en pratique en temps donné. Il y a eu au contraire beaucoup de problèmes de sur-apprentissage : typiquement ça marchait dans la publication, mais en pratique ça marchait seulement sur les données de la base d’entraînement. Par ex, l'IA arrivait à prédire la gravité en reconnaissant la signature d'un centre qui prenait en charge seulement les patients graves (c'est à dire que le réseau de neurone apprenait "nom de l'hôpital - service de soins intensifs" pour prédire que ça se passerait mal : pas très utile).

Au contraire, les humains dont je fais partie, on su communiquer via les sociétés savantes, analyser les publications de l'autre bout du monde, réfléchir sur quelques dizaines de cas en tout et pour tout pour apprendre la nouvelle maladie et être prêts. Nous, sur le terrain, alors que toute la bureaucratie avait déserté, on a repris le pouvoir, crée ex-nihilo une nouvelle organisation locale de crise, une nouvelle filière pour prendre en charge les patients au top avec des moyens système D, alors que le gouvernement était complètement perdu et envoyait tous les 3 jours des ordres contradictoires qui ont été ignorés. Au bout d'une longue crise de gouvernance, les autorités officielles de santé ont enfin sorti un plan d'action cohérent, qu'on a lu, et on a juste rigolé, car on le faisait déjà depuis 4-5 semaines sans eux.
Aucune IA n'a pu remplacer l'humain compétent.

Quand bien même l'IA dans le futur moyen arriverait à me remplacer sur une part significative de mon métier, ce n'est pas très grave. Il y a autre chose à part éboueur, il y a les gestes techniques spécialisés, dont faute de ressources humaines, même dans un pays développé, les patients ne bénéficient que trop peu et que j'aurais plus le temps de faire.

C'est la vie. L'IA sera avant tout un outil dans la main des experts pour leur libérer du temps et améliorer la qualité (ce qu'elle commence à faire : par ex, une des meilleures applications de l'IA c'est le traitement du signal avec notamment la réduction du bruit). Ensuite, dans un jour très lointain, l'IA remplacera une partie des humains comme les métiers à tisser ont remplacé les fileuses et tisserands, mais sera pour le plus grand bien à mon humble avis de futurologie, et on aura toujours besoin d'experts tant qu'on aura pas des IA généralistes supra-humaines.

Quand aux secrétaires, dans le public on n'en a déjà quasi plus (juste le reste de l'ancienne génération qui a 50 ans pour les jeunes), non pas à cause de l'IA mais parce que le gouvernement a dépensé ailleurs l'argent. à la place on a des "agents d'accueil" (c'est à dire des gens qui sont formés à plus faible niveau parce que ça coûte moins cher qu'une formation de secrétaire) avec le résultat débile que ce sont les médecins qui utilisent du temps médical pour faire du secrétariat, en s'aidant de logiciels aussi low cost avec un résultat low cost...
La direction a d'ailleurs proposé de remplacer ces agents par des logiciels, mais la direction ne se rend pas compte que la population locale a un niveau social très modeste (niveau zone d'éducation très prioritaire) et donc a besoin justement d'un contact humain très attentionné pour être aidée...

D'ailleurs, on parle souvent ici de remplacer les médecins ou les juristes par des machines, mais c'est à mon humble avis aussi facile que de remplacer les informaticiens par des machines : c'est pas pour tout de suite.
0  0 
Avatar de gerard093
Membre actif https://www.developpez.com
Le 12/05/2023 à 16:50
Le problème est de détruire l'humanité.

L'IA pense à une bombe Tsar ... difficile à obtenir ...
alors qu'un bon vieux point chaud serait très efficace pour détruire la majeure partie de l'humanité, façon dinosaures ...
Et sans radioactivité, dont l'effet est de perturber les matériels électroniques.

Bref, c'est pas Terminator ou Skynet les mieux placés ... pas encore ... tchaosGpt ?
0  0 
Avatar de nouby
Membre régulier https://www.developpez.com
Le 07/06/2023 à 0:09
Citation Envoyé par christophe7777777 Voir le message
Je pense qu'il est important que l'on soit prévenu, que les hommes de pouvoir soient prévenus, afin d'éviter (autant que possible) les manipulations : par exemple, imaginons une conversation entre un "pseudo Vladimir Poutine" et un "vrai Biden". Évidemment, c'est une grossière caricature, mais c'est l'idée...

Compte tenu de l'imprudence et de la bêtise humaine, il y a fort à craindre… sans manipulation de la part d'une intelligence artificielle malveillante, l'humanité est déjà arrivée à (se faire) vivre des périodes infernales… les intelligences artificielles malveillantes ne seront que des accélérateurs, que des catalyseurs…
Et voilà !
0  0