À la suite du lancement d'outils d'IA générative destinés aux consommateurs par des entreprises telles que Microsoft et Alphabet, la société mère de Google, les grandes et petites entreprises ont commencé à s'intéresser au déploiement de l'IA à leurs propres fins, par exemple pour améliorer un produit existant ou répondre à un besoin interne. La nécessité de créer des logiciels d'IA optimisés pour des tâches et des besoins spécifiques est à l'origine de ce partenariat.
"Cela montre que nous évoluons dans un monde où il n'y a pas qu'un seul modèle, mais autant de modèles que d'entreprises", a déclaré Clem Delangue, directeur général de Hugging Face, lors d'une interview. "Chaque entreprise forme, peaufine et optimise ses propres modèles, ce qui est la direction que prend le secteur."
La demande galopante pour l'informatique d'IA basée sur le cloud suggère qu'à sa trajectoire actuelle, elle dépassera le marché traditionnel des logiciels cloud à l'avenir, a déclaré Thomas Kurian, PDG de Google Cloud.
"L'infrastructure commence toujours à se développer parce qu'il faut d'abord mettre en place les machines qui reflètent la demande - et croître à partir de là", a déclaré M. Kurian.
Les deux entreprises ont conclu un accord de partage des revenus, mais n'en ont pas divulgué les termes.
L'accord permettra aux développeurs utilisant l'infrastructure technique de Google Cloud d'accéder et de déployer le référentiel de logiciels d'IA open source de Hugging Face, tels que les modèles et les ensembles de données. Hugging Face est devenu une plaque tournante pour les logiciels d'IA open source et a signé un accord similaire en février de l'année dernière avec l'unité cloud d'Amazon.com.
Le partenariat s'est formé parce que les clients du cloud sont devenus plus intéressés par la modification ou la construction de leurs propres modèles d'IA par rapport à l'utilisation d'options prêtes à l'emploi, a déclaré Kurian. Il s'agit par exemple de s'assurer contre des frameworks de sécurité spécifiques en place pour se prémunir contre les fuites de données, ou d'évaluer la qualité du modèle en cours d'exécution.
Reflétant l'intérêt porté à la création de logiciels d'IA, le référentiel de logiciels liés à l'IA de Hugging Face, basé à New York, doublera environ au cours des quatre prochains mois, alors qu'il fallait auparavant quatre ans pour atteindre l'état actuel, a déclaré M. Delangue.
Les développeurs pourront utiliser une version avancée des puces d'IA construites en interne par Google, ou unités de traitement tensoriel. Et Google achèvera l'intégration technique nécessaire à l'utilisation des puces d'IA avancées très convoitées de NVIDIA, les H100, dans un délai de "semaines" et non de "mois", a déclaré M. Kurian.
Le communiqué de Google Cloud annonçant le partenariat avec Hugging Face est présenté ci-dessous :
Google Cloud et Hugging Face annoncent un partenariat stratégique pour accélérer le développement de l'IA générative et de la ML.
Les développeurs pourront entraîner, régler et servir des modèles ouverts rapidement et à moindre coût sur Google Cloud
SUNNYVALE, Californie, 25 janvier 2024 - Google Cloud et Hugging Face ont annoncé aujourd'hui un nouveau partenariat stratégique qui permettra aux développeurs d'utiliser l'infrastructure de Google Cloud pour tous les services de Hugging Face, et permettra d'entraîner et de servir les modèles de Hugging Face sur Google Cloud.
Le partenariat fait progresser la mission de Hugging Face de démocratiser l'IA et approfondit le soutien de Google Cloud au développement de l'écosystème d'IA open source. Avec ce partenariat, Google Cloud devient un partenaire cloud stratégique pour Hugging Face, et une destination privilégiée pour les charges de travail de formation et d'inférence de Hugging Face. Les développeurs pourront facilement utiliser l'infrastructure optimisée pour l'IA de Google Cloud, notamment le calcul, les unités de traitement tensoriel (TPU) et les unités de traitement graphique (GPU) pour former et servir des modèles ouverts et construire de nouvelles applications d'IA générative.
Google Cloud et Hugging Face travailleront en étroite collaboration pour aider les développeurs à former et à servir de grands modèles d'IA plus rapidement et de manière plus rentable sur Google Cloud, notamment :
"Google Cloud et Hugging Face partagent la même vision de rendre l'IA générative plus accessible et plus impactante pour les développeurs", a déclaré Thomas Kurian, PDG de Google Cloud. "Ce partenariat garantit que les développeurs de Hugging Face auront accès à la plateforme d'IA conçue à cet effet de Google Cloud, Vertex AI, ainsi qu'à notre infrastructure sécurisée, ce qui peut accélérer la prochaine génération de services et d'applications d'IA."
"Du papier Transformers original au T5 et au Vision Transformer, Google a été à l'avant-garde des progrès de l'IA et du mouvement de la science ouverte", a déclaré Clément Delangue, PDG de Hugging Face. "Avec ce nouveau partenariat, nous allons permettre aux utilisateurs de Hugging Face et aux clients de Google Cloud d'exploiter facilement les derniers modèles ouverts avec l'infrastructure et les outils d'IA optimisés de premier plan de Google Cloud, notamment Vertex AI et TPU, afin de faire progresser de manière significative la capacité des développeurs à construire leurs propres modèles d'IA."
Vertex AI et GKE seront disponibles au premier semestre 2024 en tant qu'options de déploiement sur la plateforme Hugging Face.
À propos de Google Cloud
Google Cloud accélère la capacité de chaque organisation à transformer numériquement son activité et son secteur. Nous proposons des solutions d'entreprise qui s'appuient sur les technologies de pointe de Google, ainsi que des outils qui aident les développeurs à construire de manière plus durable. Des clients dans plus de 200 pays et territoires se tournent vers Google Cloud en tant que partenaire de confiance pour activer la croissance et résoudre leurs problèmes professionnels les plus critiques.
Les développeurs pourront entraîner, régler et servir des modèles ouverts rapidement et à moindre coût sur Google Cloud
SUNNYVALE, Californie, 25 janvier 2024 - Google Cloud et Hugging Face ont annoncé aujourd'hui un nouveau partenariat stratégique qui permettra aux développeurs d'utiliser l'infrastructure de Google Cloud pour tous les services de Hugging Face, et permettra d'entraîner et de servir les modèles de Hugging Face sur Google Cloud.
Le partenariat fait progresser la mission de Hugging Face de démocratiser l'IA et approfondit le soutien de Google Cloud au développement de l'écosystème d'IA open source. Avec ce partenariat, Google Cloud devient un partenaire cloud stratégique pour Hugging Face, et une destination privilégiée pour les charges de travail de formation et d'inférence de Hugging Face. Les développeurs pourront facilement utiliser l'infrastructure optimisée pour l'IA de Google Cloud, notamment le calcul, les unités de traitement tensoriel (TPU) et les unités de traitement graphique (GPU) pour former et servir des modèles ouverts et construire de nouvelles applications d'IA générative.
Google Cloud et Hugging Face travailleront en étroite collaboration pour aider les développeurs à former et à servir de grands modèles d'IA plus rapidement et de manière plus rentable sur Google Cloud, notamment :
- En donnant aux développeurs un moyen d'entraîner, de régler et de servir les modèles Hugging Face avec Vertex AI en quelques clics à partir de la plateforme Hugging Face, afin qu'ils puissent facilement utiliser les services MLOps de bout en bout spécialement conçus par Google Cloud pour construire de nouvelles applications d'IA générative.
- En prenant en charge les déploiements de Google Kubernetes Engine (GKE), les développeurs de Hugging Face peuvent également former, régler et servir leurs charges de travail avec une infrastructure "do it yourself" et mettre à l'échelle des modèles en utilisant des conteneurs d'apprentissage profond spécifiques à Hugging Face sur GKE.
- En fournissant à davantage de développeurs open source un accès à Cloud TPU v5e, qui offre jusqu'à 2,5x plus de performance par dollar et jusqu'à 1,7x moins de latence pour l'inférence par rapport aux versions précédentes.
- En ajoutant la prise en charge future des VM A3, alimentées par les GPU H100 Tensor Core de NVIDIA, qui offrent un entraînement trois fois plus rapide et une bande passante réseau dix fois plus importante par rapport à la génération précédente.
- En utilisant Google Cloud Marketplace pour fournir une gestion et une facturation simples pour la plateforme gérée par Hugging Face, y compris Inference, Endpoints, Spaces, AutoTrain, et d'autres.
"Google Cloud et Hugging Face partagent la même vision de rendre l'IA générative plus accessible et plus impactante pour les développeurs", a déclaré Thomas Kurian, PDG de Google Cloud. "Ce partenariat garantit que les développeurs de Hugging Face auront accès à la plateforme d'IA conçue à cet effet de Google Cloud, Vertex AI, ainsi qu'à notre infrastructure sécurisée, ce qui peut accélérer la prochaine génération de services et d'applications d'IA."
"Du papier Transformers original au T5 et au Vision Transformer, Google a été à l'avant-garde des progrès de l'IA et du mouvement de la science ouverte", a déclaré Clément Delangue, PDG de Hugging Face. "Avec ce nouveau partenariat, nous allons permettre aux utilisateurs de Hugging Face et aux clients de Google Cloud d'exploiter facilement les derniers modèles ouverts avec l'infrastructure et les outils d'IA optimisés de premier plan de Google Cloud, notamment Vertex AI et TPU, afin de faire progresser de manière significative la capacité des développeurs à construire leurs propres modèles d'IA."
Vertex AI et GKE seront disponibles au premier semestre 2024 en tant qu'options de déploiement sur la plateforme Hugging Face.
À propos de Google Cloud
Google Cloud accélère la capacité de chaque organisation à transformer numériquement son activité et son secteur. Nous proposons des solutions d'entreprise qui s'appuient sur les technologies de pointe de Google, ainsi que des outils qui aident les développeurs à construire de manière plus durable. Des clients dans plus de 200 pays et territoires se tournent vers Google Cloud en tant que partenaire de confiance pour activer la croissance et résoudre leurs problèmes professionnels les plus critiques.
Et vous ?
Quel est votre avis sur le sujet ?
Pensez-vous que cette initiative de Google Cloud et de Hugging Face permettra d'accélérer le développement de la GenAI ?
Voir aussi :
Hugging Face et Amazon Web Services s'associent pour rendre l'IA plus accessible et la faire évoluer dans le cloud
Google veut déployer "l'IA la plus avancée, la plus sûre et la plus responsable au monde" en 2024, mais le chemin à parcourir est encore long et pourrait comporter des défis majeurs