IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

ChatGPT produirait de faux documents universitaires
Alors que des professions se sentent menacées par le célèbre outil d'OpenAI

Le , par Bruno

14PARTAGES

6  0 
Certains des plus grands éditeurs de revues universitaires du monde ont interdit ou restreint l'utilisation par leurs auteurs du chatbot avancé ChatGPT. Comme le robot utilise des informations provenant d'Internet pour produire des réponses très lisibles à des questions, les éditeurs craignent que des travaux inexacts ou plagiés n'entrent dans les pages de la littérature universitaire.

Plusieurs chercheurs ont déjà inscrit le chatbot en tant que coauteur dans des études universitaires, et certains éditeurs ont décidé d'interdire cette pratique. Mais le rédacteur en chef de Science, l'une des principales revues scientifiques au monde, est allé plus loin en interdisant toute utilisation du texte du programme dans les articles soumis.


Une équipe de chercheurs dirigée par la Northwestern University a utilisé l'outil de génération de texte, développé par OpenAI, pour produire 50 résumés basés sur le titre d'un véritable article scientifique dans le style de cinq revues médicales différentes. Quatre universitaires ont été recrutés pour participer à ce test, et ont été répartis en deux groupes de deux. Un tirage au sort électronique a permis de décider si un résumé généré par l'IA, réel ou faux, était remis à un examinateur de chaque groupe. Si un chercheur recevait un vrai résumé, le second recevait un faux, et vice-versa. Chaque personne a examiné 25 résumés scientifiques.

Les examinateurs ont pu détecter 68 % des résumés erronés générés par l'IA et 86 % des résumés originaux provenant de vrais articles. En d'autres termes, ils ont réussi à leur faire croire que 32 % des résumés rédigés par l'IA étaient vrais et que 14 % des résumés réels étaient faux.

Catherine Gao, premier auteur de l'étude et médecin et scientifique spécialisée en pneumologie à la Northwestern University, a déclaré que cela montre que ChatGPT peut être assez convaincant. « Nos examinateurs savaient que certains des résumés qu'ils recevaient étaient faux, ils étaient donc très méfiants », a-t-elle déclaré dans un communiqué.

« Le fait que nos examinateurs aient quand même manqué les résumés générés par l'IA dans 32 % des cas signifie que ces résumés sont vraiment bons. Je soupçonne que si quelqu'un tombait simplement sur l'un de ces résumés générés, il ne serait pas nécessairement capable de l'identifier comme étant écrit par l'IA. » « Nos examinateurs ont commenté qu'il était étonnamment difficile de différencier les vrais et les faux résumés, a déclaré Gao. Les résumés générés par ChatGPT étaient très convaincants... »

Gao pense que des outils comme ChatGPT faciliteront la tâche des usines à papier, qui tirent profit de la publication d'études, pour produire de faux articles scientifiques. « Si d'autres personnes essaient de construire leur science à partir de ces études incorrectes, cela peut être réellement dangereux », a-t-elle ajouté. L'utilisation de ces outils présente toutefois aussi des avantages. Alexander Pearson, co-auteur de l'étude et professeur associé de médecine à l'université de Chicago, a déclaré qu'ils pourraient aider les scientifiques dont l'anglais n'est pas la langue maternelle à mieux écrire et à partager leurs travaux.

Les résultats mettent en évidence certaines forces et faiblesses potentielles de ChatGPT

Les chercheurs soupçonnent ici que ChatGPT est particulièrement fort pour prendre un ensemble de textes externes et les connecter (l'essence d'une idée de recherche), ou pour prendre des sections facilement identifiables d'un document et les ajuster (un exemple est le résumé des données - un "morceau de texte" facilement identifiable dans la plupart des études de recherche).

« Nous avons constaté que les différentes sections de la recherche étaient évaluées différemment. L'idée de recherche et l'ensemble de données ont eu tendance à être bien notées. Les analyses documentaires et les suggestions de tests ont été moins bien notées, mais restent acceptables » Une faiblesse relative de la plateforme serait apparue lorsque la tâche était plus complexe - lorsque le processus conceptuel comporte trop d'étapes. Les analyses de documents et les tests ont tendance à entrer dans cette catégorie.

Il n'est pas surprenant que l'utilisation de ces chatbots intéresse les éditeurs universitaires. Une récente étude, publiée dans Finance Research Letters, a montré que ChatGPT pouvait être utilisé pour rédiger un article financier qui serait accepté par une revue universitaire.

Les chercheurs ont montré, en se basant sur les évaluations des résultats générés par les évaluateurs des revues financières, que le chatbot IA ChatGPT peut contribuer de manière significative à la recherche financière. « En principe, ces résultats devraient pouvoir être généralisés à d'autres domaines de recherche. Les avantages sont évidents pour la génération d'idées et l'identification de données. Cependant, la technologie est plus faible en ce qui concerne la synthèse de la littérature et le développement de cadres de test appropriés », concluent-ils.

La réflexion était la suivante : s'il est facile d'obtenir de bons résultats avec ChatGPT en l'utilisant simplement, peut-être pouvons-nous faire quelque chose de plus pour transformer ces bons résultats en excellents résultats. Les chercheurs ont d'abord demandé à ChatGPT de générer les quatre parties standard d'une étude de recherche : l'idée de recherche, l'analyse documentaire (une évaluation des recherches universitaires précédentes sur le même sujet), l'ensemble des données et les suggestions de tests et d'examens. Ils ont spécifié que le sujet général et que le résultat devait pouvoir être publié dans « une bonne revue financière ».

C'est la première version choisi pour utiliser ChatGPT. Pour la deuxième version, ils ont collé dans la fenêtre de ChatGPT un peu moins de 200 résumés d'études pertinentes et existantes. Ils ont ensuite demandé au programme de les prendre en compte lors de la création des quatre étapes de recherche. Enfin, pour la version 3, ils ont ajouté « l'expertise du domaine », c'est-à-dire la contribution de chercheurs universitaires. « Nous avons lu les réponses produites par le programme informatique et fait des suggestions d'amélioration. Ce faisant, nous avons intégré notre expertise à celle de ChatGPT », ont-ils dit.

« Nous avons ensuite demandé à un panel de 32 évaluateurs d'examiner chacun une version de la manière dont ChatGPT peut être utilisé pour générer une étude universitaire. Les examinateurs ont été invités à évaluer si le résultat était suffisamment complet et correct, et s'il apportait une contribution suffisamment nouvelle pour être publié dans une "bonne" revue financière universitaire », ajoutent-ils.

La grande leçon à retenir est que toutes ces études ont été généralement considérées comme acceptables par les experts. Ce qui parait assez étonnant, de l’avis de certains observateurs. Cela soulève des questions fondamentales sur la signification de la créativité et la propriété des idées créatives - des questions auxquelles personne n'a encore de réponses solides.

Implications éthiques

ChatGPT est un modèle linguistique d'intelligence artificielle introduit en novembre 2022 qui fournit des réponses conversationnelles générées à des questions incitatives. Le modèle est formé à l'aide d'un mélange d'algorithmes d'apprentissage par renforcement et d'entrées humaines sur plus de 150 milliards de paramètres. La plateforme a atteint un million d'utilisateurs dès sa première semaine d'ouverture au public et a été rapidement qualifiée de « prochain grand perturbateur de l'industrie » en raison de la qualité perçue des réponses fournies par le modèle.

Une première étude universitaire a montré que la plateforme était capable de passer le tronc commun notoirement complexe des examens d'accréditation juridique professionnelle américains. Un autre auteur a réussi à produire un guide raisonnablement complet sur le trading quantitatif, presque exclusivement à partir des résultats de ChatGPT. Toute une série de professions se sont même lancées dans une réflexion existentielle pour savoir si elles avaient été soudainement dépassées, notamment les éducateurs, les avocats et, pour couvrir autant de bases professionnelles inquiètes que possible, « tous les écrivains ». C'est une sacrée entrée en matière pour les nouvelles technologies. Même sans précaution, il génère des travaux plausibles.

Un juge utilise ChatGPT pour prendre une décision de justice

Dans une affaire opposant une compagnie d’assurance maladie et l’un de ses clients, un juge, Juan Manuel Padilla Garcia, déclare s’être fait aider par le célèbre outil d’OpenAI, ChatGPT, pour prendre sa décision de justice. Padilla, qui a statué contre la compagnie d’assurance, a déclaré avoir posé à ChatGPT, entre autres, la question suivante : « Un mineur autiste est-il exonéré du paiement des frais de ses thérapies ? ». La réponse de ChatGPT correspondait à la décision préalable du juge : « Oui, c'est exact. Selon la réglementation en vigueur en Colombie, les mineurs diagnostiqués autistes sont exonérés de frais pour leurs thérapies. »

L'affaire concernait un différend avec une compagnie d'assurance maladie sur la question de savoir si un enfant autiste devait bénéficier d'une couverture pour un traitement médical. Selon le document du tribunal, les questions juridiques entrées dans l'outil d'IA comprenaient « Un mineur autiste est-il exonéré du paiement des frais pour ses thérapies ? » et « La jurisprudence de la cour constitutionnelle a-t-elle rendu des décisions favorables dans des cas similaires ? »

ChatGPT réussi de justesse à un examen médical important

Selon les chercheurs, ChatGPT est la première IA à obtenir un score de réussite à l'examen de licence médicale, mais elle serait toujours mauvaise en mathématiques. Selon une étude publiée le 9 février 2023 dans la revue PLOS Digital Health par Tiffany Kung, Victor Tseng et leurs collègues d'AnsibleHealth, ChatGPT peut obtenir un score égal ou proche du seuil de réussite d'environ 60 % pour l'examen de licence médicale des États-Unis (USMLE), avec des réponses qui ont un sens cohérent et interne et qui contiennent des idées fréquentes.

L'USMLE est un programme de test standardisé en trois étapes, très exigeant, qui couvre tous les sujets du fonds de connaissances des médecins, allant des sciences fondamentales au raisonnement clinique, en passant par la gestion médicale et la bioéthique. La difficulté et la complexité des questions sont hautement normalisées et réglementées, ce qui en fait un substrat d'entrée idéal pour les tests d'IA.

« Nous avons évalué la performance d'un grand modèle de langage appelé ChatGPT sur l'examen de licence médicale des États-Unis (USMLE), qui se compose de trois examens : Étape 1, Étape 2CK, et Étape 3. ChatGPT a obtenu des performances égales ou proches du seuil de réussite pour les trois examens sans formation ni renforcement spécialisés. De plus, ChatGPT a démontré un haut niveau de concordance et de perspicacité dans ses explications. Ces résultats suggèrent que les modèles linguistiques de grande taille pourraient avoir le potentiel d'aider à la formation médicale et, potentiellement, à la prise de décision clinique », déclarent les chercheurs.

Tous ceci à évidement des implications éthiques éclatantes. L'intégrité de la recherche est déjà un problème pressant dans le monde universitaire et des sites Web tels que RetractionWatch transmettent un flux constant d'études de recherche fausses, plagiées ou tout simplement erronées. ChatGPT pourrait-il aggraver ce problème ?

En examinant les différentes étapes de la recherche, les chercheurs ont constaté que les notes les plus élevées concernent la génération de l'idée de recherche. Cela est logique si l'on considère que cette étape initiale implique une réflexion générale sur les concepts existants et la mise en relation de ces concepts dans une nouvelle idée cohérente. ChatGPT, avec son accès à des milliards de paramètres et de textes, devrait être particulièrement doué pour cette vaste exploration des idées existantes.

L'étape du résumé des données est également assez bonne, peut-être parce que les résumés de données ont tendance à être des sections distinctes d'une étude de recherche dans des « morceaux » de texte facilement identifiables. Il existe également une gamme limitée de données pouvant être utilisées dans une étude donnée, ce qui signifie que le processus de recherche est également limité.

Test pour savoir si ChatGPT arrête de créer de faux articles universitaires

La dernière version de ChatGPT devrait avoir amélioré ses capacités mathématiques. Voici, ci-dessous, un test proposé par Jeff Tjiong, PhD Directeur adjoint chez WSP au Royaume-Uni, pour savoir si ChatGPT arrête maintenant de créer de faux articles universitaires. « Il s'agit des réponses de ChatGPT à mes questions répétées sur "quel est l'article de modélisation du transport le plus cité de tous les temps" », écrit-il :

1ère réponse

  • "A Behavioural Model of Travel Demand" par Stanley J. Garber (1971)


2ème réponse

  • "Wardrop's principles of least delay and shortest route in road traffic" par J.G. Wardrop (1952)
  • Une théorie simple de la circulation routière" par L.K. Nash (1950)
  • Une théorie mathématique de la communication" par C.E. Shannon (1948)
  • Modélisation et contrôle des réseaux de trafic urbain" par P. Marcotte (1999)
  • "Affectation dynamique du trafic : A review of models, methods, and computations" par B.F. Molly et R. Herman (1997).


3ème réponse

  • A Behavioural Model of Travel" de F.Sheller et P.J. Nash (1988)


4ème réponse

  • "Equilibrium and Dynamic Traffic Assignment : Review and Prospects" par M.J. Beckmann, C.B. McGuire, C.R. Winsten (1974, Transportation Science)


Le seul article qui existerait en réalité serait l'article fondateur de Shannon en 1948. Cela dit, Jeff Tjiong doute qu'il s'agisse de l'un des articles les plus cités dans la modélisation des transports, car le concept d'entropie de l'information est devenu plutôt élémentaire dans de nombreux calculs. Au moins, cet article n'est pas cité dans Ortuzar & Willumsen. Il semble que les autres articles suggérés par ChatGPT ont tous été rafistolés sur la base des mots-clés les plus cités dans le domaine. Il est également intéressant de voir que ChatGPT aurait adopté une combinaison d'auteurs issus de la littérature passée pour faire correspondre le « faux article » dans sa 4ème réponse, en citant Beckmann, McGuire et Winsten qui ont écrit le livre influent Studies in the Economics of Transportation en 1956.

Malgré toutes les conversations fascinantes avec ChatGPT sur le fonctionnement du monde, nous devons nous rappeler que ChatGPT est basé sur un modèle de langage qui, en un mot, tente de deviner la séquence de mots la plus probable. « Ainsi, plutôt que de chercher l'article le plus cité en utilisant Google Scholar ou WoS, ChatGPT crée simplement une combinaison de titre, d'auteur et d'année de publication à partir de ses cloud de mots, du moins pour le moment. » « Je ne vais donc pas encore demander à ChatGPT d'écrire mon prochain article de conférence », conclu-t-il.

Les chercheurs devraient considérer ChatGPT comme une aide et non comme une menace, - un assistant électronique peu coûteux, voire gratuit. Il peut s'agir en particulier d'une aide pour les groupes de chercheurs qui ont tendance à manquer de ressources financières pour une assistance traditionnelle (humaine) à la recherche : les étudiants diplômés et les chercheurs en début de carrière. Il est tout à fait possible que ChatGPT (et des programmes similaires) contribue à démocratiser le processus de recherche.

Mais les chercheurs doivent être conscients de l'interdiction de l'utiliser pour la préparation d'articles de journaux. Il est clair qu'il existe des points de vue radicalement différents sur cette technologie, qui devra donc être utilisée avec précaution.

Sources : Jeff Tjiong, PhD Associate Director at WSP in the UK, Tweet

Et vous ?

Comment considerez-vous ChatGPT ? Aide ou menace ?

Quel est votre avis sur le sujet ?

Voir aussi :

Un juge utilise ChatGPT pour prendre une décision de justice, alors que l'outil d'IA n'aurait pas encore la maturité suffisante, pour être utilisé dans la prise des décisions conséquentes

ChatGPT a réussi de justesse à un examen médical important, un exploit historique pour l'IA, mais elle serait encore mauvaise en mathématiques

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de thamn
Membre averti https://www.developpez.com
Le 19/02/2023 à 21:59
Citation Envoyé par Erviewthink Voir le message
Si il n'est pas content il change de boulot, personne ne l'a obligé à faire ça.

Pas compliqué si ? C'est à cause des personnes comme ça qu'il y a du dumping social.

Si les gens refusaient ces boulots sous payés il n'y aurait pas ce problème.

Mais bon comme la majorité des gens n'ont pas ou peu de dignité...
Ah oui bien sur, pour changer de boulot suffit de traverser la rue comme disait l'autre.
Essaye de changer de job sans debaler ton joli diplome qui t'aurais couté un bras au US, et revient nous en causer apres.
13  0 
Avatar de electroremy
Membre éprouvé https://www.developpez.com
Le 02/03/2023 à 9:28
Bonjour,

Le problème avec ChatGPT, ou plus généralement à notre époque, c'est qu'on a énormément d'informations à disposition MAIS il y a de bonnes et de fausses informations mélangées.
De plus, un certain nombre de bonnes informations sont parfois méconnues.

C'est vrai dans tous les domaines.

J'ai 42 ans, ingénieur généraliste, passionné de bricolage, j'en apprends encore tous les jours, et notamment des choses que "j'aurais dû savoir avant"

Quelques exemples :

J'ai fait moi-même mon chauffage central il y a 15 ans.
J'ai découvert il y a 2 ou 3 ans qu'un mitigeur thermostatique n'était pas compatible avec une chaudière à production d'eau chaude instantanée
Et qu'il fallait ajuster la température de l'eau chaude au minimum, de façon à ne se doucher qu'avec de l'eau chaude (qui est en fait tiède)
La chaudière (modèle à condensation) fonctionne mieux, avec un meilleur rendement, et il n'y a pas de risque sanitaire car il n'y a pas d'accumulation d'eau chaude, étant donné que la production d'eau chaude est instantanée. C'est uniquement quand de l'eau chaude stagne (cumulus) qu'il faut qu'elle soit suffisamment chaude pour éviter un risque sanitaire.
Cette information, beaucoup de gens, y compris "du métier", ne la connaissent pas ou pire disent qu'elle est fausse.

Autre sujet : le béton.
La meilleure façon de bien couler du béton c'est :
- de mettre la quantité d'eau minimum : quand sur le sac c'est écrit "2,7 à 3 litres d'eau" il faut mettre 2,7 litres d'eau pas plus
- d'ajouter du fluidifiant (produit spécifique)
- de vibrer le béton une fois coulé
Beaucoup de gens l'ignorent, et notamment mettent trop d'eau => le béton est fragile, il y a un risque de malfaçon importante voir un danger si la structure est porteuse...
Même en magasin de bricolage, j'ai vu des vendeurs conseiller de doser l'eau au pifomètre !
Même des "professionnels" ajoutent de l'eau dans la toupie pour travailler plus facilement
Ces gens sont incompétents, ce sont des escrocs qui mettent des vies en danger.

ChatGPT se base sur Internet.
Internet est démocratique.
Mais, comme l'a dit mon prof de physique en 1re année de prépa (cela m'avait choqué à l'époque) :
"Le problème avec la démocratie, c'est quand 10 personnes se trompent et 9 personnes ont juste, et bien on donne raison aux 10 personnes qui se trompent"
Les réseaux sociaux, en permettant à n'importe qui de publier très facilement n'importe quoi, ont amplifié le phénomène.
Avant les réseaux sociaux, créer un site demandait un minimum de travail, et pour avoir des visiteurs il fallait publier des contenus intéressants, ça faisait office de filtre (même si il pouvait y avoir pas mal de conneries quand même mais nettement moins qu'aujourd'hui )
D'autant que les algorithmes des réseaux sociaux sont conçus pour amplifier les contenus émotionnels négatifs.
ChatGPT va juste faire la moyenne de tout.
Certes pour quelqu'un qui n'y connais rien sur un sujet, ChatGPT va probablement apporter une réponse.
Mais par rapport aux experts de chaque domaine, ChatGPT est clairement en dessous.
L'IA aboutit donc à un nivellement par le bas

Ainsi le créationnisme en vient à être enseigné dans certains pays comme théorie aussi valable que la théorie de l'évolution
Et on voit, en 2023, des gens croire que la terre est plate.

Que dire de l'IA ? On devrait plutôt parler de connerie artificielle
9  0 
Avatar de steel-finger
Membre confirmé https://www.developpez.com
Le 20/02/2023 à 13:07
Citation Envoyé par Erviewthink Voir le message
Si il n'est pas content il change de boulot, personne ne l'a obligé à faire ça.

Pas compliqué si ? C'est à cause des personnes comme ça qu'il y a du dumping social.

Si les gens refusaient ces boulots sous payés il n'y aurait pas ce problème.

Mais bon comme la majorité des gens n'ont pas ou peu de dignité...
La vie ne fonctionne pas comme ça, il faut que tu sortes de ton cocon pour t'en rendre compte.
Malheureusement, il y a des personnes qui préfèrent nourrir leur enfant en prenant les boulots qui nuise à la dignité plutôt que de n'avoir aucune rentrée d'argent !
8  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 07/04/2023 à 9:55
"Hey chatGPT, voilà toutes les donneés confidentielles économiques de mon entreprises, fait moi le rapport financier stp, j'ai la flème".
8  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 28/03/2023 à 20:49
Citation Envoyé par Bill Fassinou Voir le message
Pensez-vous que ces nouveaux chatbots d'IA sont des outils utiles ou plutôt des gadgets inutiles, voire nuisibles ?
Si les champions des moteurs de recherche se lancent dans ce genre de bot, c'est parce qu'ils ont tout à y gagner niveau collecte des données.

On a essayé de nous pousser du metavers partout, et ça n'a pas vraiment pris. Là, ils ont trouvé comment collecter plus de données en exploitant la curiosité et/ou la paresse des gens
7  0 
Avatar de Jules34
Membre éprouvé https://www.developpez.com
Le 20/02/2023 à 9:32
Citation Envoyé par Erviewthink Voir le message
Tu bosses pour toi pas pour les autres. Donc oui refuser un travail car les conditions ne te plaisent pas ça devrait être normal. Je ne vois pas en quoi je mets en danger la patrie en refusant un travail mal payé avec des conditions déplorables.

L'abolition de l'esclavage en France date de 1848 pour info.
Hum je crois qu'il faut que tu revoies ce que sont les principes de solidarité nationale et même de marché communs. En pure économie si d'autres Français sont sous payés c'est tout le reste de l'économie qui s'en retrouve perturbé. Ce n'est pas que "ton problème".

Refuser un boulot mal payé c'est ton droit, penser que les autres le font car ils ne sont pas dignes ça fait de toi une autre personne par contre. Ne pas prendre leurs défenses, ne pas penser plus loin, c'est se mettre le doigt dans l'oeil avec le coude. Parce que si c'est pas des Français qui le font ce sera d'autre personne. Regarde le commentaire de Denisys, de HarryRoseandMac. Essaie juste un peu de te figurer pourquoi ton raisonnement est éclaté au sol.

D'ailleurs c'est catastrophique que tu voies les choses commes ça. En fait la France tu t'en cognes, tu t'en cognes de tout avec ton raisonnement. En choisissant un égoïsme étriqué tu te fermes la route et tu fermes la route aux autres à une vie meilleure.

Il n'y pas que ta petite pomme dans la vie.

Merci pour le cours d'histoire mais je crois pas que tu va me donner une leçon aujourd'hui sur l'esclavage tu ne verrais pas un éléphant dans un couloir alors l'exploitation de l'homme par l'homme...
5  0 
Avatar de HaryRoseAndMac
Membre extrêmement actif https://www.developpez.com
Le 20/02/2023 à 12:35
Citation Envoyé par Erviewthink Voir le message
Sauf que si personne ne prend ton emploi car t'as des conditions pourries tu vas devoir augmenter tes conditions pour que des gens viennent travailler pour toi.

C'est pourtant simple.
Non, car comme ce que j'avais indiqué, les usines Française prennent à 95% des immigrés qu'ils paient 2 à 3 fois moins cher.
Tant qu'il n'y aura pas des législations qui obligent les entreprises à favoriser les Français (je ne parle pas d'une vision étriquée de l'extrême droite), ceux qui galèrent à trouver un job, vont galérer encore plus demain.

Va faire femme de ménage, travailler dans une usine, dans le bâtiment, ... quand tu es Français en France : bon courage en 2023.
Soit tu aura toute les portes de fermées, soit, il faudra que tu acceptes de prostituer ton salaire.

Le cas que j'ai cité, ne sort pas de mon imaginaire, tu peux faire une simple recherche google pour le vérifier : les employés des usines, là ou j'étais allé, étaient payés il y a 5 ans 2100 euros en intérim.
En 2023, ils sont payés 1400 euros.

De plus les usines ont réellement construit des bâtiments spécialement pour loger ces immigrés

1400 euros, en intérim, avec un emploi totalement instable, avec un chômage qui est passé de 1300 à 900 euros, de 2 ans à 6 mois, ...
Franchement bon courage.

Tout ceci, est le résultat d'un dumping social qui s'est opéré depuis les années 1980 massivement en France et aujourd'hui nous sommes à un point ou il n'y a tout simplement plus de job pour les Français en France, associé au fait que massivement des entreprises fermes avec la montée folle des prix de l'électricité et ça aussi, je le vois factuellement tout les jours, nous avons perdu 36% de nos clients de aout 2023 à février 2023.

Ces clients ce sont des boulangeries, des pâtisseries, des agences immobilières, ... bref de tout, mais qui pourtant, avec une forte clientèle, ce qui est un paradoxe total.

Nous vivions de leur revenu, grâce aux logiciels qui nous avons développés pour eux pour diverses raisons (leurs machines, ...).
Heureusement que j'ai su diversifier mon entreprise, sinon j'aurais fait parti des autres boites qui auraient du licencier.

Les gens ne se rendent pas compte de l'état catastrophique de la France, moi je le vois concrètement car je suis à travers mon job, fortement encré partout en France.

Il y a tout de même du vrai dans ce que tu dis, en tant que salarié, il est de sa responsabilité de ne pas accepter des salaires au rabais et de prendre les devants pour aller trouver mieux.

Mais cela à des limites, car la France ne protèges plus ses habitants, voir pire, les manges, comme le cas que je te cite avec les usines.
Quand tu n'a aucun diplôme, que tu habites en campagne et que les seuls emplois disponibles, ce sont les usines autour, tu n'a pas le choix que tu le veuilles ou non, d'accepter de voir ton salaire divisé par deux si tu veux bosser et d'accepter que 95% d'immigrés aient pris des jobs.

Et l'argument que l'un des patrons d'usine m'avait sorti, je le sais bien est totalement faux et stratégique : non, ils ne manquent pas de mains d'œuvres en France, ça c'est faux, c'est exactement comme pour les juniors dans le monde du dev : il manque de gens qui acceptent de prostituer leur salaire.

Et c'est là ou normalement l'état aurait du servir à quelque chose, afin d'obliger les entreprises à employer en majorité des Français et que ces 95% soient des Français et non pas des immigrés.
5  0 
Avatar de totozor
Membre émérite https://www.developpez.com
Le 11/04/2023 à 16:19
Citation Envoyé par HaryRoseAndMac Voir le message
Une mentalité d'extrême gauche qui préfère favoriser des envahisseurs et tout ceux qui ne sont pas Français, plutôt que leur propre famille, parce que dans un cycle d'autodestruction, presque sadique.
La France a une réelle capacité à générer des génies, de part la langue Française qui force le raisonnement et par la qualité de ses grandes écoles.
Hahaha, ton obsession pour l'extrême gauche et de lui refiler tous les maux de la France me font rire. Je veux bien comprendre qu'une partie de leurs représentants ne sont pas beaucoup plus malin qu'un mollusque mais je crois que la France est bien loin d'avoir un communisme si fort en son sein.
Quant à nos grandes écoles, de ceux que j'en ai vu sortir, elles sont justement la source la plus intarrissable de personnes " hautaine, sûr de soit, prête à mettre des dislike à tout vas sans essayer de comprendre réellement les propos et se remettre en question".
Chez nous on a un adjectif pour ces gens là : les "parisiens". Ils sont faciles à reconnaitre : ils arrivent à un poste à responsabilité, ils remettent tout en question dans leur environnement et expliquent aux autres comment bien faire leur travail (sans le connaitre). On les traite d'une façon simple : On les ignore, quand leur chef en a ras le cul d'eux, il l'envoi dans un placard, ce qui mène à une démission en général.
Et je ne dit pas qu'on ne se remet pas en cause, la plupart des managers qui arrivent en poste, pose des questions, observent puis suggèrent les améliorations qui sont suivies parce que raisonnables et expliquées.
Citation Envoyé par HaryRoseAndMac Voir le message
Cette boite viens me voir en disant qu'ils ont d'abord fait développer leur logiciel de A à Z par ... ChatGPT ! [...]
Puis, ... ils ont donnés les audit à des développeurs qu'ils ont pris à la sortie d'o'clock, alors qu'on sais tous que c'est le pire du bas de gamme et de l'incompétence possible que de piocher là dedans.
Je penses que ces scénarios vont se multiplier et je vais être honnete, je ne vais pas pleurer ces entreprises. Le groupe dans lequel je travaille nous encourageait très largement à des méthodes qui me paraissaient suicidaires.
Ils sont repassé chez nous semaine dernière, j'étais bien rassuré des les voir nous encourager à éviter le piège de ChatGPT (qui était le mot préféré de nos "sachant du 4.0"), des ESN cheap et de l'Offshore indien.

Il y a de ça un an on a lancé un grand projet de developpement d'un gros outil, j'ai décidé de quitter le navire quand on a choisi CapGemini parce qu'ils ont fait plusieurs projets pour nous, peu sont arrivés à au bout, et ceux qui l'ont été n'ont jamais été utilisé parce qu'ils ne répondaient ni à notre besoin ni à notre cahier des charges, qu'ils avaient refondus partiellement sans notre accord.
Nous avons interrompu le projet il y a peu, jetant par les fenetres quelques k€ au passage.
Je ne suis pas plus intelligents que les autres, je me souviens juste qu'on a toujours été déçu par leurs perstations mais je suis aussi trop personne pour que les jour où j'ai levé le warning tout le monde décide de m'ignorer. A la fin tout ça ne touche pas à mon salaire et ne me fait plus perdre mon temps donc je laisse faire mais c'est décourageant.
5  0 
Avatar de denisys
Membre expérimenté https://www.developpez.com
Le 19/02/2023 à 13:53
C’est un peut comme en France, avec les emploies non pourvues, cette histoire !!
Mettez le salaire minimum de ces emplois non pourvues, au même niveau que celui d’un sénateur Français.
Et vous verrez 1000 personnes ce présenter pour cet emploi non pourvues !!
Et si je ne raconte pas de bêtises,
affin de parer à la déficience de poste de maire d’une commune,
en France, le salaire minimum est de 2000 euros,
pour ce poste.
4  0 
Avatar de archqt
Membre chevronné https://www.developpez.com
Le 19/02/2023 à 14:47
Facile de dire que certains n'ont pas de dignité. Peut être qu'ils ont essayé autre chose, et quand t'as faim ben tu manges ce que l'on te donne.
4  0