O desenvolvimento ocorre no momento em que a IA generativa do consumidor, que atraiu a atenção global após o lançamento do ChatGPT da OpenAI em novembro de 2022, com sucesso imediato, estimulou desenvolvimentos em todo o mundo. A tecnologia está agora no centro do setor de IA em rápido crescimento, que tem visto investidores investirem bilhões de dólares em startups generativas de IA. Para a Liquid, os novos modelos da startup são conhecidos como Liquid Foundation Models (LFMs), que, segundo a empresa, podem oferecer desempenho comparável ou superior aos modelos tradicionais de linguagem grande (LLMs), como os da OpenAI, Google Cloud e AWS. Os LFMs são modelos de IA leves e de uso geral que exigem menos dados e poder de computação. Os modelos estranhamente usam abordagens matic descobertas ao estudar o cérebro de um verme, conforme Crunchbase. De acordo com SiliconAngle , os modelos da Liquid são baseados no conceito de “redes neurais líquidas”. Essa classificação é diferente dos modelos generativos baseados em transformadores pré-treinados ou GPTs que suportam chatbots populares como ChatGPT e Gemini do Google LLC. “Na Liquid, nossa missão é construir os sistemas de IA mais capazes e eficientes em todas as escalas.” CEO da Liquid, Ramin Hasani. “Desde a nossa criação, demonstramos a escalabilidade da nossa tecnologia ao lançar modelos baseados em texto, revelando LFMs multimodais e colaborando com parceiros importantes para demonstrar o impacto no mundo real”, acrescentou Hasani. De acordo com a SiliconAngle, a startup de IA oferece três tamanhos de modelo, ou seja, LFM-1B, um modelo denso de 1,3 bilhão de parâmetros para dispositivos como telefones celulares, LFM-3B, um modelo de 3,1 bilhões de parâmetros otimizado para desenvolvimentos de ponta, e o LFM -40B Mistura de Especialistas, projetada para lidar com tarefas complexas. A Liquid AI disse que os LFMs têm um consumo de memória reduzido em comparação com a arquitetura GPT, que é mais substancial para entradas longas, por exemplo, ao processar documentos ou vídeos extremamente longos. O modelo LFM-3.1B, de acordo com a Liquid AI, usou significativamente menos memória do que outros modelos pequenos quando implantado do que modelos como Gemma 2 2B-it do Google LLC ou Llama3.2 3B da Meta. Agora, com este financiamento, a Liquid AI juntou-se a uma parceria estratégica com a AMD, reforçando a sua capacidade de otimizar os seus modelos básicos com as unidades de processamento gráfico, central e neural do fabricante de chips. O financiamento também ajudará a startup sediada em Cambridge, Massachusetts, a desenvolver LFMs personalizados para indústrias como a tron de consumo, a biotecnologia, as telecomunicações, os serviços financeiros e o comércio eletrónico. A Liquid AI foi fundada em 2023. Consiga um emprego bem remunerado na Web3 em 90 dias: o roteiro definitivo Liquid AI quer desenvolver modelos mais eficientes
A parceria da AMD permitirá que a Liquid AI otimize seus LFMs