BFM Business Tech Co 01 02 2024 Hugging Face signe avec Google
February 02, 2024
Ce jeudi 1er février, Julien Simon, évangéliste technique chez Hugging Face, a abordé le partenariat entre Hugging Face et Google, dans l'émission Tech & Co présentée par François Sorel. Tech & Co est à voir ou écouter du lundi au jeudi sur BFM Business.
https://huggingface.co/blog/gcp-partnership
⭐️⭐️⭐️ Don't forget to subscribe to be notified of future videos. Follow me on Medium at https://julsimon.medium.com or Substack at https://julsimon.substack.com. ⭐️⭐️⭐️
Transcript
Tech & Co, la quotidienne, l'invité. Et bonsoir cher Julien. Bonsoir. On se retrouve de temps en temps pour évoquer les avancées de Hugging Face. Voilà une belle pépite franco-américaine que l'on suit avec beaucoup de plaisir dans Tech & Co, fondée en 2016. Rappelons que vous êtes spécialisé dans le partage et la création d'applications et de modèles IA open source. Vous êtes un peu une marketplace de l'intelligence artificielle, pour schématiser. C'est gratuit, et ensuite vous faites payer la maintenance de ces modèles d'intelligence artificielle que je choisis moi en tant qu'entreprise. Pour résumer, c'est ça ?
C'est ça, effectivement. Depuis quelques années, on a accumulé et on continue d'accumuler la plus large collection de modèles d'IA open source à l'état de l'art. On approche des 500 000 modèles. Ces modèles, créés par les grandes entreprises de la tech, les universités, les labos de recherche, et la communauté au sens large, sont à disposition de tous, téléchargeables et utilisables conformément à leur licence open source en quelques instants. Avec une belle levée de fonds en septembre dernier de 235 millions de dollars, tout va bien. Vous êtes un peu le chouchou des investisseurs, et vous avez une vraie vision qui paye.
Et vous êtes avec nous aujourd'hui pour nous parler d'un partenariat très important pour vous. C'est ce partenariat que vous avez noué avec Google Cloud. Alors, expliquez-nous pourquoi Google Cloud et qu'est-ce que ça va changer dans la structure de Hugging Face et surtout pour vos clients.
Vous avez mentionné notre dernière levée de fonds cet été, où les plus grandes entreprises de la tech sont entrées au capital, comme Amazon, Microsoft, Google, et d'autres. L'étape logique était donc d'être des partenaires avec toutes ces entreprises. Pour Amazon, c'était déjà le cas depuis des années, ainsi qu'avec Intel, AMD, etc. Il en manquait une notable, c'est Google. On est content de pouvoir travailler avec eux maintenant. L'objectif commun est toujours le même : permettre à tous les utilisateurs d'utiliser nos modèles, quel que soit leur environnement. Quel que soit le cloud ou l'infrastructure que vous utilisez, vous devez pouvoir le faire de manière simple, fluide, et scalable, au meilleur coût, en profitant des accélérateurs hardware disponibles. Google est assez connu sur ces sujets. On commence donc à travailler à l'intégration de nos modèles.
Vous travaillez avec les autres géants aussi, non ? Bien sûr, oui. De la même façon que nous avons intégré notre écosystème open source sur AWS et Azure, par exemple. C'est même bizarre que vous arriviez si tardivement sur Google, non ?
Dans l'absolu, oui. Lequel des deux a tardé ? Ça n'a pas beaucoup d'importance. Nous avons une philosophie open source qui se traduit techniquement et intellectuellement. Nous sommes ravis de signer le maximum de partenariats avec le maximum d'entreprises pour que, quel que soit votre choix de cloud ou de hardware, vous puissiez travailler dans les meilleures conditions possibles. Donc, bienvenue à Google dans l'écosystème Hugging Face. Ça a mis un peu plus de temps que prévu, mais on est très content de travailler avec eux maintenant.
On va parler de Vertex AI, car tout cela va se mettre en place d'ici le premier semestre 2024. Ce que vous faites est assez abstrait, et il est bon de donner des exemples de temps en temps. Je suis une entreprise lambda, je veux me lancer dans l'intelligence artificielle. Je viens chez vous, dans votre magasin, qui ressemble un peu à un app store, et c'est gratuit. En ce moment, vous remuez le couteau dans la plaie pour Apple. En tant qu'entreprise, je vais pouvoir chercher le modèle d'intelligence artificielle qui correspond à mes besoins.
Tout à fait. Je passe la plupart de mon temps avec des clients entreprises. Donnez-nous un exemple, par exemple. Pour être totalement transparent, j'étais encore à Dublin ce matin. J'ai passé trois jours en Irlande à rencontrer des clients, avec Amazon en l'occurrence. J'ai rencontré une compagnie aérienne irlandaise dont on peut assez facilement deviner le nom, qui commence par Ryan et finit par R. Cette compagnie veut optimiser son support client, car une compagnie aérienne a beaucoup de clients, des avions en retard, et des problèmes. Les coûts sont élevés et difficiles à scaler. Il faut plus de personnel, plus de formation. Une solution est de créer un chatbot que l'on intègre sur l'application mobile ou le site web, capable de répondre à 50%, 60%, 80% des demandes, ou d'orienter vers un humain avec le contexte pour une réponse rapide.
Vous dites "espérons-le," mais les chatbots parfois... même les call centers avec des humains ne sont pas parfaits. Les modèles ne sont pas non plus parfaits, mais avec l'IA générative, on passe une autre étape. Les clients cherchent à automatiser et accélérer leurs processus métier. Cela peut être des processus back-office classiques, comme traduire, résumer, classer des documents, ou vérifier automatiquement que les documents ont été signés, que les cases ont été cochées, etc. Il n'y a pas un secteur où vous n'avez pas une solution, finalement ?
Non, trouvez-moi un client, je le cherche toujours. Si quelqu'un nous écoute aujourd'hui et n'a aucun souci de processus métier ralenti par du traitement de documents manuels ou des processus manuels en général, qu'il se manifeste, je serais ravi de l'intégrer dans mes slides. Mais sincèrement, pour l'instant, non. La valeur que nous apportons à nos clients, c'est de dire : "Nous avons des modèles multilingues. Venez avec votre problème, et vous trouverez probablement des modèles qui sont un bon point de départ. Parfois, ils fonctionnent tel quel, parfois il faut les travailler un peu, mais une grosse partie du travail est déjà faite par ces modèles pré-entraînés."
Revenons à ce partenariat avec Google. D'ici le premier semestre 2024, les modèles Hugging Face seront disponibles dans Vertex AI, l'offre d'intelligence artificielle de Google. Oui, c'est le service de machine learning et d'IA de Google, un service managé. On pourrait aujourd'hui utiliser des modèles Hugging Face sur Google en lançant une machine virtuelle, en chargeant un modèle, en l'entraînant, etc., mais il y a toujours un peu de plomberie, un peu trop de travail à faire. Le but de ces partenariats, comme ceux avec Amazon, Azure, et Nvidia, est de créer un environnement technique simple, accueillant, scalable, et efficace en termes de coûts, pour vous débarrasser de ces tâches techniques peu intéressantes et vous permettre de vous concentrer sur votre problème métier, l'évaluation des modèles, l'entraînement des modèles, etc. Effectivement, on va le faire dans Vertex, et ça arrive d'ici le premier semestre.
Merci beaucoup Julien. Avec plaisir. Il est venu nous présenter tout ça. Mention bonus, et franchement, j'adore votre t-shirt parce que "I fail the Turing test" est pas mal. Rappelons ce que ça veut dire. À chaque fois que vous m'invitez, mon seul stress est de savoir quel t-shirt je vais porter. Celui-ci me plaît beaucoup parce que le test de Turing est un test qu'on passe à une intelligence artificielle pour voir si un humain arrive à discuter avec elle. Vous l'avez raté, ce qui fait que vous faites beaucoup moins bien que l'intelligence artificielle. Et j'adore ce petit humour bien sympathique.
Merci beaucoup, Julien Simon, évangéliste technique chez Hugging Face.
Tags
Hugging FaceGoogle CloudOpen Source AIPartenariat TechVertex AI
Julien Simon is the Chief Evangelist at Arcee AI
, specializing in Small Language Models and enterprise AI solutions. Recognized as the #1 AI Evangelist globally by AI Magazine in 2021, he brings over 30 years of technology leadership experience to his role.
With 650+ speaking engagements worldwide and 350+ technical blog posts, Julien is a leading voice in practical AI implementation, cost-effective AI solutions, and the democratization of artificial intelligence. His expertise spans open-source AI, Small Language Models, enterprise AI strategy, and edge computing optimization.
Previously serving as Principal Evangelist at Amazon Web Services and Chief Evangelist at Hugging Face, Julien has helped thousands of organizations implement AI solutions that deliver real business value. He is the author of "Learn Amazon SageMaker," the first book ever published on AWS's flagship machine learning service.
Julien's mission is to make AI accessible, understandable, and controllable for enterprises through transparent, open-weights models that organizations can deploy, customize, and trust.