
« Je viens d'être expulsé de Columbia pour avoir pris position contre les entretiens Leetcode », a déclaré Roy Lee dans un message publié sur X (ex-Twitter) le 27 mars. Roy Lee a conçu un outil appelé « Interview Coder » pour contourner le processus des entretiens techniques rigoureux des Big Tech. Il utilise l'IA pour résoudre des problèmes de codage, ce que Roy Lee a démontré en enregistrant et en publiant sur YouTube son entretien avec Amazon.
Selon Roy Lee, Interview Coder est totalement « invisible » pour les programmes que les entreprises utilisent pour surveiller l'ordinateur d'un candidat lors d'un entretien technique. Toutefois, il a été accusé d'avoir triché lors des entretiens, ce qui a conduit Columbia à prendre des mesures disciplinaires contre lui.
Le jeune de 21 ans est également accusé d'encourager les autres à tricher pour réussir les entretiens d'embauche ou dans d'autres tâches. En effet, Roy Lee vend des abonnements à Interview Coder pour 60 $ par mois. Il admet que le fait de passer des entretiens et de publier la partie technique en ligne était un stratagème de marketing. « Je n'avais pas vraiment le courage de faire quelque chose comme ça jusqu'à tout récemment », a-t-il expliqué.
La startup de Roy Lee va vendre un logiciel d'AI pour tricher sur tout
Le 20 avril 2025, Roy Lee a annoncé avoir levé 5,3 millions de dollars de fonds d'amorçage auprès d'Abstract Ventures et de Suse Ventures pour sa startup, Cluely, qui propose un outil d'IA pour « tricher sur tout ». Le mois dernier, après sa suspension par l'université de Columbia, Roy Lee s'est associé à un ami pour lancer une startup appelée Cluely. Le programme Interview Coder fait désormais partie de la startup Cluely, qui est basée à San Francisco.
Cluely is out. cheat on everything. pic.twitter.com/EsRXQaCfUI
— Roy (@im_roy_lee) April 20, 2025
L'autre cofondateur de la startup est un autre ancien étudiant de Columbia âgé de 21 ans, Neel Shanmugam. Il est le directeur de l'exploitation de Cluely. Comme Roy Lee, Neel Shanmugam a également fait l'objet d'une procédure disciplinaire à l'université de Columbia à propos de logiciel d'IA Interview Coder. Le journal étudiant de l'université de Columbia a rapporté récemment que les deux cofondateurs de Cluely ont abandonné leurs études universitaires.
Le produit de Cluely offre à ses utilisateurs la possibilité de « tricher » lors d'examens, de visites de vente et d'entretiens d'embauche grâce à une fenêtre cachée dans le navigateur qui ne peut être vue par l'intervieweur ou le responsable de l'examen. Cluely a publié un manifeste dans lequel il compare son outil à des inventions telles que la calculatrice et le correcteur orthographique, qui étaient à l'origine considérées comme des outils de tricherie.
Cluely a publié une vidéo de lancement bien réalisée, mais controversée, dans laquelle Roy Lee utilise un assistant d'IA caché pour mentir (sans succès) à une femme sur son âge, et même sur ses connaissances en art, lors d'un rendez-vous dans un restaurant chic. Certains ont salué la vidéo pour avoir attiré l'attention des gens, mais d'autres l'ont tournée en dérision, estimant qu'elle rappelle la série télévisée de science-fiction dystopique « Black Mirror ».
Roy Lee, PDG de Cluely, a déclaré que leur outil de triche a dépassé les 3 millions de dollars de revenus récurrents annuels au début du mois. En abandonnant ses études, Roy Lee a déclaré que l'IA rendra obsolète le travail de la plupart des programmeurs dans deux ans ; un avis très controversé.
Frontière entre innovation technologique et promotion de la tricherie
Cluely a débuté comme un outil permettant aux développeurs de tricher sur les connaissances de LeetCode, une plateforme de questions de codage que certains dans les milieux de l'ingénierie logicielle (y compris les fondateurs de Cluely) considèrent comme dépassée et comme une perte de temps. Roy Lee affirme qu'il a pu décrocher un stage chez Amazon en utilisant son outil de triche. Amazon a refusé de commenter le cas particulier de Roy Lee.
Imagine making a black mirror short as a product ad https://t.co/2GKXQj8e1v
— Cody Blakeney (@code_star) April 21, 2025
Mais Margaret Callahan, porte-parole d'Amazon, a déclaré que l'entreprise accueille favorablement les candidats qui souhaitent partager leurs expériences de travail avec des outils d'IA générative, mais que ces candidats doivent s'engager à ne pas utiliser d'outils non autorisés au cours du processus d'entretien. Roy Lee a déclaré avoir passé des entretiens chez TikTok, Meta et Amazon. Meta et TikTok n'ont pas répondu aux demandes de commentaire.
Le projet de Roy Lee a suscité des réactions contrastées dans la communauté. Certains y voient une innovation audacieuse mettant en lumière les lacunes des méthodes de recrutement actuelles, tandis que d'autres s'inquiètent des implications éthiques et de la promotion de la tricherie. Roy Lee, de son côté, affirme que son outil met en évidence les faiblesses des processus d'évaluation technique et plaide pour une révision des pratiques de recrutement.
« Le processus traditionnel d'entretien technique est un fardeau pour les programmeurs et pour le monde. Les Big Tech ne sont pas incités à changer », a déclaré Roy Lee lorsque son histoire est devenue virale, bien que de nombreuses études contredisent son point de vue sur l'impact de l'IA sur les programmeurs.
« Pourquoi tricher lors d'un entretien si l'on finit par découvrir que vous n'êtes pas qualifié ? Quel est l'intérêt ? », s'interroge un critique. Cette affaire soulève des questions importantes sur l'utilisation de l'IA dans les processus de sélection et sur la frontière entre innovation technologique et éthique professionnelle.
OpenAI : l'IA peut écrire du code, mais ne parvient pas à le comprendre
L'impact de l'IA sur l'emploi dans le secteur technologique suscite des débats passionnés, oscillant entre optimisme technologique et craintes d'une automatisation massive. En ce qui concerne le développement logiciel, le PDG de Replit, Amjad Masad, a récemment déclaré : « nous ne nous soucions plus des codeurs professionnels », soulignant ainsi comment l'IA démocratise le métier en rendant certains postes spécialisés moins indispensables.
Cependant, le code généré par l'IA pose plusieurs défis. Il pourrait augmenter la charge de travail des développeurs et accroître les risques. Une étude d'Uplevel a révélé que les assistants d'IA de codage n'augmentent pas la vitesse de codage, mais augmentent significativement le taux de bogues. L'étude indique que l'utilisation de GitHub Copilot a entraîné une augmentation de 41 % des bogues, soulevant des inquiétudes quant à la qualité du code.
Outre la qualité, la maintenabilité constitue également l'une des principales préoccupations liées au code généré par l'IA. Selon une étude récente publiée par OpenAI, l'IA peut générer du code, mais ne parvient pas à le comprendre. Ce qui constitue l'une des principales limites actuelles de l'IA générative. Testés sur des tâches réelles de programmation dans le cadre de l'étude, les modèles les plus avancés n'ont pu résoudre qu'un quart des défis.
En raison des limites de l'IA, Sam Altman, PDG d'OpenAI, a renoncé à son ambition de remplacer les développeurs. Dans une interview publiée au début du mois, Sam Altman a déclar...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.