Uma startup francesa levantou um grande investimento inicial para “rearquitetar a infraestrutura de computação” para desenvolvedores que desejam construir e treinar aplicativos de IA com mais eficiência.

FlexAIcomo a empresa é chamada, opera secretamente desde outubro de 2023, mas a empresa sediada em Paris está lançando formalmente na quarta-feira com € 28,5 milhões (US$ 30 milhões) em financiamento, enquanto apresenta seu primeiro produto: um serviço de nuvem sob demanda para Treinamento de IA.

Esta é uma grande mudança para uma rodada inicial, o que normalmente significa um pedigree de fundador realmente substancial – e esse é o caso aqui. Cofundador e CEO da FlexAI Brijesh Tripathi anteriormente foi engenheiro de design sênior na gigante de GPU e agora queridinha de IA Nvidia, antes de assumir vários cargos sênior de engenharia e arquitetura na Apple; Tesla (trabalhando diretamente com Elon Musk); Zoox (antes de a Amazon adquirir a startup de direção autônoma); e, mais recentemente, Tripathi foi vice-presidente da divisão de IA e plataforma de supercomputação da Intel, AXG.

Cofundador e CTO da FlexAI Venha para a China também tem um currículo impressionante, atuando em vários cargos técnicos em empresas como Nvidia e Zynga, enquanto, mais recentemente, ocupou o cargo de CTO na startup francesa Lifen, que desenvolve infraestrutura digital para o setor de saúde.

A rodada inicial foi liderada por Alpha Intelligence Capital (AIC), Elaia Partners e Heartcore Capital, com a participação de Frst Capital, Motier Ventures, Partech e CEO da InstaDeep, Karim Beguir.

Equipe FlexAI em Paris

O enigma da computação

Para entender o que Tripathi e Kilani estão tentando com FlexAI, primeiro vale a pena entender o que os desenvolvedores e profissionais de IA enfrentam em termos de acesso à “computação”; refere-se ao poder de processamento, infraestrutura e recursos necessários para realizar tarefas computacionais, como processamento de dados, execução de algoritmos e execução de modelos de aprendizado de máquina.

“Usar qualquer infraestrutura no espaço de IA é complexo; não é para os fracos de coração e não é para os inexperientes”, disse Tripathi ao TechCrunch. “É necessário que você saiba muito sobre como construir infraestrutura antes de poder usá-la.”

Por outro lado, o ecossistema de nuvem pública que evoluiu nas últimas décadas serve como um excelente exemplo de como uma indústria emergiu da necessidade dos desenvolvedores de criar aplicações sem se preocupar muito com o back-end.

“Se você é um pequeno desenvolvedor e deseja escrever um aplicativo, não precisa saber onde ele está sendo executado ou qual é o back-end – você só precisa criar uma instância EC2 (nuvem Amazon Elastic Compute) e você acabou”, disse Tripathi. “Você não pode fazer isso com a computação de IA hoje.”

Na esfera da IA, os desenvolvedores devem descobrir quantas GPUs (unidades de processamento gráfico) precisam para interconectar em que tipo de rede, gerenciada por meio de um ecossistema de software pelo qual são inteiramente responsáveis ​​pela configuração. Se uma GPU ou rede falhar, ou se algo nessa cadeia der errado, a responsabilidade recai sobre o desenvolvedor para resolver o problema.

“Queremos levar a infraestrutura de computação de IA ao mesmo nível de simplicidade que a nuvem de uso geral alcançou – depois de 20 anos, sim, mas não há razão para que a computação de IA não possa ver os mesmos benefícios”, disse Tripathi. “Queremos chegar a um ponto em que a execução de cargas de trabalho de IA não exija que você se torne especialista em data center.”

Com a iteração atual de seu produto sendo testada por alguns clientes beta, a FlexAI lançará seu primeiro produto comercial ainda este ano. É basicamente um serviço em nuvem que conecta desenvolvedores a “computação virtual heterogênea”, o que significa que eles podem executar suas cargas de trabalho e implantar modelos de IA em múltiplas arquiteturas, pagando com base no uso, em vez de alugar GPUs por dólares por hora.

As GPUs são engrenagens vitais no desenvolvimento de IA, servindo para treinar e executar grandes modelos de linguagem (LLMs), por exemplo. A Nvidia é um dos jogadores proeminentes no espaço da GPU e um dos principais beneficiários da revolução da IA ​​desencadeada pelo OpenAI e ChatGPT. Nos 12 meses desde que a OpenAI lançou uma API para ChatGPT em março de 2023, permitindo aos desenvolvedores incorporar a funcionalidade ChatGPT em seus próprios aplicativos, as ações da Nvidia dispararam de cerca de US$ 500 bilhões para mais de US$ 2 trilhões.

Os LLMs estão surgindo da indústria de tecnologia, com a demanda por GPUs disparando em conjunto. Mas a operação de GPUs é cara e alugá-las de um provedor de nuvem para trabalhos menores ou casos de uso ad hoc nem sempre faz sentido e pode ser proibitivamente caro; é por isso que a AWS tem se envolvido com aluguéis por tempo limitado para projetos menores de IA. Mas alugar ainda é alugar, e é por isso que a FlexAI deseja abstrair as complexidades subjacentes e permitir que os clientes acessem a computação de IA conforme necessário.

“Multicloud para IA”

O ponto de partida do FlexAI é que a maioria dos desenvolvedores não realmente preocupam-se principalmente com quais GPUs ou chips eles usam, seja Nvidia, AMD, Intel, Graphcore ou Cerebras. A sua principal preocupação é ser capaz de desenvolver a sua IA e construir aplicações dentro das suas restrições orçamentais.

É aqui que entra o conceito de “computação de IA universal” da FlexAI, onde FlexAI pega os requisitos do usuário e os aloca para qualquer arquitetura que faça sentido para aquele trabalho específico, cuidando de todas as conversões necessárias nas diferentes plataformas, seja Infraestrutura de Gaudi da Intel, Rocm da AMD ou CUDA da Nvidia.

“O que isso significa é que o desenvolvedor está focado apenas na construção, treinamento e uso de modelos”, disse Tripathi. “Nós cuidamos de tudo por baixo. As falhas, a recuperação e a confiabilidade são todas gerenciadas por nós e você paga pelo que usa.”

De muitas maneiras, a FlexAI está se preparando para acelerar para a IA o que já vem acontecendo na nuvem, o que significa mais do que replicar o modelo de pagamento conforme o uso: significa a capacidade de se tornar “multicloud”, apoiando-se nos diferentes benefícios de diferentes infraestruturas de GPU e chips.

Por exemplo, FlexAI canalizará a carga de trabalho específica de um cliente dependendo de quais são suas prioridades. Se uma empresa tiver orçamento limitado para treinamento e ajuste fino de seus modelos de IA, ela poderá definir isso na plataforma FlexAI para obter o máximo de retorno computacional pelo seu investimento. Isso pode significar recorrer à Intel para obter uma computação mais barata (mas mais lenta), mas se um desenvolvedor tiver uma execução pequena que exija a saída mais rápida possível, ela poderá ser canalizada através da Nvidia.

Nos bastidores, a FlexAI é basicamente um “agregador de demanda”, alugando o próprio hardware por meios tradicionais e, usando suas “fortes conexões” com o pessoal da Intel e da AMD, garante preços preferenciais que distribui por sua própria base de clientes. Isso não significa necessariamente evitar o chefão da Nvidia, mas possivelmente significa que em grande medida – com Intel e AMD brigando por sucatas de GPU deixado na esteira da Nvidia – há um enorme incentivo para eles jogarem bola com agregadores como o FlexAI.

“Se eu conseguir fazer com que funcione para os clientes e trazer dezenas a centenas de clientes para sua infraestrutura, eles [Intel and AMD] ficarei muito feliz”, disse Tripathi.

Isso contrasta com players de nuvem de GPU semelhantes no espaço, como o bem financiado CoreWeave e Laboratórios Lambdaque se concentram diretamente no hardware da Nvidia.

“Quero levar a computação de IA ao ponto onde está a atual computação em nuvem de uso geral”, observou Tripathi. “Você não pode fazer multicloud em IA. Você deve selecionar hardware específico, número de GPUs, infraestrutura, conectividade e mantê-lo você mesmo. Hoje, essa é a única maneira de realmente obter computação de IA.”

Quando questionado sobre quem são exatamente os parceiros de lançamento, Tripathi disse que não foi capaz de nomear todos eles devido à falta de “compromissos formais” de alguns deles.

“A Intel é um parceiro forte, eles definitivamente fornecem infraestrutura, e a AMD é um parceiro que fornece infraestrutura”, disse ele. “Mas há uma segunda camada de parcerias acontecendo com a Nvidia e algumas outras empresas de silício que ainda não estamos prontos para compartilhar, mas estão todas no mix e nos MOUs [memorandums of understanding] estão sendo assinados agora.”

O efeito Elon

Tripathi está mais do que preparado para lidar com os desafios futuros, tendo trabalhado em algumas das maiores empresas de tecnologia do mundo.

“Eu sei o suficiente sobre GPUs; Eu costumava construir GPUs”, disse Tripathi sobre sua passagem de sete anos na Nvidia, terminando em 2007, quando ele abandonou o navio para a Apple no lançamento do primeiro iPhone. “Na Apple, concentrei-me em resolver problemas reais dos clientes. Eu estava lá quando a Apple começou a construir seus primeiros SoCs [system on chips] para telefones.”

Tripathi também passou dois anos na Tesla, de 2016 a 2018, como líder de engenharia de hardware, onde acabou trabalhando diretamente com Elon Musk nos últimos seis meses, depois que duas pessoas acima dele deixaram abruptamente a empresa.

“Na Tesla, o que aprendi e estou levando para minha startup é que não há outras restrições além da ciência e da física”, disse ele. “A forma como as coisas são feitas hoje não é como deveriam ou precisam ser feitas. Você deve ir atrás do que é a coisa certa a fazer desde os primeiros princípios e, para fazer isso, remover todas as caixas pretas.”

Tripathi esteve envolvido na transição da Tesla para fabricar seus próprios chips, um movimento que desde então foi imitado pela GM e pela Hyundai, entre outras montadoras.

“Uma das primeiras coisas que fiz na Tesla foi descobrir quantos microcontroladores existem em um carro e, para fazer isso, tivemos que literalmente vasculhar um monte daquelas grandes caixas pretas com blindagem de metal e revestimento em volta, para encontre esses microcontroladores realmente minúsculos lá”, disse Tripathi. “E acabamos colocando isso em uma mesa, espalhamos e dissemos: ‘Elon, há 50 microcontroladores em um carro. E às vezes pagamos margens de 1.000 vezes sobre eles porque são blindados e protegidos por um grande invólucro de metal. E ele disse, ‘vamos fazer o nosso próprio’. E nós fizemos isso.”

GPUs como garantia

Olhando mais para o futuro, a FlexAI também tem aspirações de construir a sua própria infraestrutura, incluindo centros de dados. Isto, disse Tripathi, será financiado por financiamento de dívida, com base em uma tendência recente que tem visto rivais no espaço incluindo CoreWeave e Lambda Labs usa chips Nvidia como garantia para garantir empréstimos – em vez de doar mais capital.

“Os banqueiros agora sabem como usar GPUs como garantia”, disse Tripathi. “Por que doar patrimônio? Até nos tornarmos um verdadeiro fornecedor de computação, o valor da nossa empresa não será suficiente para nos proporcionar as centenas de milhões de dólares necessários para investir na construção de centros de dados. Se fizermos apenas capital próprio, desapareceremos quando o dinheiro acabar. Mas se realmente depositarmos isso em GPUs como garantia, eles poderão retirar as GPUs e colocá-las em algum outro data center.”

Fuente