A parceria estratégica entre o Google Cloud, parte da Alphabet Inc., e a startup Hugging Face, sediada em Nova York, está prestes a transformar o panorama do desenvolvimento de IA de código aberto. O acordo, anunciado recentemente, traz benefícios significativos para os desenvolvedores, ampliando o acesso à plataforma Hugging Face por meio da infraestrutura robusta do Google Cloud.
O Google Cloud fechou um acordo que permitirá a hospedagem do software de IA da Hugging Face em sua rede de computação em nuvem. Essa colaboração estratégica surge como resposta à crescente demanda por acessibilidade e recursos de computação avançados na comunidade de IA de código aberto.
A Hugging Face, conhecida por ser um repositório popular de modelos de IA de código aberto, oferecerá sua plataforma através do Google Cloud, proporcionando aos desenvolvedores uma oportunidade de explorar ferramentas inovadoras e acelerar a inovação em IA.
A força conjunta da Hugging Face e Google Cloud
Ao unir forças, a Hugging Face e o Google Cloud almejam fortalecer os laços com a comunidade de desenvolvedores de código aberto. Isso é particularmente significativo, pois engenheiros dessa comunidade têm se destacado no desenvolvimento de modelos de IA que rivalizam com os das grandes empresas de tecnologia, mas a um custo mais acessível. A parceria também é uma resposta a preocupações anteriormente levantadas por um engenheiro do Google, indicando que a empresa corria o risco de perder sua vantagem em IA para desenvolvedores de código aberto.
Os benefícios práticos para desenvolvedores
Com essa colaboração estratégica, os desenvolvedores que utilizam a plataforma Hugging Face ganham acesso à robusta infraestrutura do Google Cloud. Isso inclui a configuração da nuvem do Google e milhares de GPUs, como as oferecidas pelo serviço Vertex AI. Essa parceria permite que os desenvolvedores criem, treinem e implantem modelos de IA sem a necessidade de pagar por uma assinatura do Google Cloud. Essa abordagem “com boa relação custo-benefício” proporciona acesso às unidades de processamento tensor (TPU) e aos supercomputadores GPU do Google, incluindo milhares de H100s da Nvidia, sob demanda e com restrição de exportação.
O repositório de modelos de IA da Hugging Face é reconhecido por armazenar mais de 350.000 modelos, tornando-se um destino vital para desenvolvedores. Nomes de peso, como Google, Amazon e Nvidia, contribuíram para a avaliação impressionante de US$ 4,5 bilhões da Hugging Face. A colaboração com o Google Cloud expande ainda mais o suporte ao desenvolvimento do ecossistema de IA de código aberto. A parceria inclui a integração da plataforma Hugging Face com o Vertex AI, permitindo que desenvolvedores aproveitem serviços completos de Machine Learning Operations (MLOps) e infraestrutura otimizada.
Projetando o futuro da parceria
O Google Cloud e a Hugging Face planejam uma colaboração próxima para acelerar o treinamento e a implementação de grandes modelos de IA. No primeiro semestre de 2024, os usuários do Hugging Face poderão utilizar a plataforma de construção de aplicativos de IA Vertex AI e o mecanismo Kubernetes. Essa parceria promete oferecer suporte ao Google Kubernetes Engine (GKE) e ao Cloud TPU v5e, ampliando ainda mais as opções para os desenvolvedores. A inclusão de VMs A3, alimentadas por GPUs Tensor Core H100 da NVIDIA, está nos planos futuros, prometendo treinamento mais rápido e maior largura de banda de rede.