Embora as hostilidades internacionais continuem sendo um tópico quente, os fabricantes de chips chineses e os provedores de serviços em nuvem parecem estar fazendo esforços concertados para apoiar os modelos de IA deepseek e outros feitos localmente.
A Deepseek está recebendo atenção especial de seu país de origem, que também possui algumas das maiores empresas de tecnologia do mundo.
Para o status, no sábado, a Huawei Technologies anunciou que está colaborando com o AI Startup Siliconflow para oferecer os modelos da Deepseek aos clientes. Ele fará isso através de seu serviço de nuvem ascend.
Uma carta de @deepseek_ai reconhecendo o suporte de @huawei #Deepseek #huawei pic.twitter.com/crggcs1iz3
- Vivendo em Harmony ⭕☯ⓜ🔥🥉🏅🔄🦾🍞🆙🆗📢🎯🔑💼🛡️👑 (@LivingINHarmony) 5 de fevereiro de 2025
A Huawei também produz seus próprios chips de IA. Isso significa que a colaboração deles pode fornecer à startup de IA chips de IA.
Na segunda -feira, a Moore Threads e Hygon Information Technology, que desenvolvem processadores de IA, anunciaram que seus clusters e aceleradores de computação apoiarão os modelos R1 e V3 da Deepseek. Ambas as empresas estão trabalhando para competir com a Nvidia.
Moore Threads disse: "prestamos homenagem a Deepseek". Eles acrescentaram que o progresso dos modelos de Deepseek usando unidades de processamento gráfico (GPU) fabricado no mercado interno "poderia atender à indústria de IA da China".
Em seguida, a Gitee AI, um site de serviço único baseado em Shenzhen para desenvolvedores de IA, disse que estava oferecendo quatro modelos baseados em Deepseek-R1. Os modelos estarão disponíveis através de servidores alimentados por GPUs do designer de chips Metax, com sede em Xangai.
A Deepseek se juntou aos EUA ai chatbots para fornecer um assistente de IA gratuito. No entanto, a empresa disse que seu assistente gratuito de IA usa menos dados por uma fração do custo dos serviços existentes. Claramente, sua estratégia se destaca.
Algumas empresas adotaram os modelos da startup de IA chineses, mesmo com as controvérsias. De fato, o aplicativo ultrapassou o rival Chatgpt nos downloads da App Store da Apple, desencadeando ainda mais uma venda global em ações da tecnologia.
O Deepseek entregou modelo após modelo em um período de tempo incomumente carconométrico. Ele lançou seu novo modelo Deepseek-V3 em dezembro de 2024. Em seguida, Deepseek-R1, Deepseek-R1-Zero e Deepseek-R1-Distill saiu em 20 de janeiro de 2025. Em 27 de janeiro de 2025, a empresa adicionou um novo Janus -Pro-7b Modelo AI, que se concentra na visão.
O modelo Deepseek-R1-Zero possui 671 bilhões de parâmetros, enquanto a série Deepseek-R1-Distill inclui modelos com parâmetros de 1,5 bilhão e 70 bilhões de parâmetros.
Agora, a Amazon Web Services (AWS), Microsoft e Google Cloud oferecem o modelo para seus clientes. Mas, a partir de agora, eles não começaram a usar o sistema de preços por toque que outros modelos de IA, como o Llama 3 da Meta, usam.
Além disso, na segunda -feira, os serviços em nuvem do Alibaba Group ofereceram aos modelos de IA da Deepseek em sua plataforma. Os serviços em nuvem da Baidu e da Tencent também anunciaram que estão oferecendo os modelos da Deepseek para seus usuários.
Os analistas de Bernstein disseram: " Deepseek demonstra que os grandes modelos de idiomas competitivos (LLM) podem ser implantados nos chips" bons o suficiente "da China, aliviando a dependência do hardware americano de ponta".
No entanto, países como a Itália e a Holanda bloquearam o serviço e estão investigando o aplicativo de AI da Deepseek devido a problemas de privacidade.
Os analistas de mercado insistem que os provedores de nuvem lucrarão mais com os aluguéis de infraestrutura do que as taxas diretas de uso do modelo.
O aluguel de servidores em nuvem para tarefas de IA é tecnicamente mais caro do que usar modelos por meio de APIs. A AWS cobra até US $ 124 por hora por um servidor em nuvem que é otimizado para a IA. Isso custa cerca de US $ 90.000 por mês para uso 24/7.
Os usuários do Microsoft Azure não precisam alugar servidores especiais para a DeepSeek. No entanto, eles pagam pelo poder de computação que usam. Isso significa que o custo pode mudar com base em quão bem eles executam o modelo.
Por outro lado, os grupos usando a Llama 3.1 da Meta através da AWS pagam US $ 3 por cada 1 milhão de tokens. Esses tokens são partes do texto e 1.000 tokens são cerca de 750 palavras.
Empresas de nuvem menores, como a IA e os fogos de artifício, começaram a usar um sistema de preços simples. Eles cobram um valor fixo para cada token com seu modelo Deepseek-R1.
Outra opção mais barata para o Deepseek-R1 é através da API da empresa controladora, a US $ 2,19 por milhão de tokens. Isso é de três a quatro vezes mais barato do que alguns fornecedores de nuvem ocidental.
Academia Cryptopolitan: Você está cometendo esses erros de currículo da Web3? - Descubra aqui