Si bien las hostilidades internacionales continúan siendo un tema candente, los fabricantes de chips chinos y los proveedores de servicios en la nube parecen estar haciendo esfuerzos concertados para apoyar a Deepseek y otros modelos de IA localmente fabricados.
Deepseek está recibiendo atención especial de su país de origen, que también tiene algunas de las compañías tecnológicas más grandes del mundo.
Para el estado, el sábado, Huawei Technologies anunció que está colaborando con la startup de IA Siliconflow para ofrecer modelos de Deepseek a los clientes. Hará esto a través de su servicio en la nube Ascend.
Una carta de @deepseek_ai reconociendo el apoyo de @huawei #Deepseek #huawei pic.twitter.com/crggcs1iz3
- Vivir en la armonía ⭕☯ⓜ🔥🥉🏅🔄🦾🍞🆙🆗📢🎯🔑💼🛡️👑 (@livinginharmony) 5 de febrero de 2025
Huawei también produce sus propias chips AI. Esto significa que su colaboración podría proporcionar la startup de IA con chips AI.
El lunes, Moore Threads and Hygon Information Technology, que desarrollan procesadores de inteligencia artificial, anunció que sus grupos y aceleradores informáticos apoyarán los modelos R1 y V3 de Deepseek. Ambas compañías están trabajando para competir con NVIDIA.
Moore Threads dijo: "Brindamos homenaje a Deepseek". Agregaron que el progreso de los modelos de Deepseek utilizando unidades de procesamiento gráficos (GPU) hechos a nivel nacional "podría prender fuego a la industria de la inteligencia artificial de China".
A continuación, Giteee AI, un sitio web de servicio único con sede en Shenzhen para desarrolladores de IA, dijo que estaba ofreciendo cuatro modelos basados en Deepseek-R1. Los modelos estarán disponibles a través de servidores alimentados por GPU por el diseñador de chips con sede en Shanghai Metax.
Deepseek se unió a los chatbots de IA de EE. UU. Para proporcionar un asistente de IA gratuito. Sin embargo, la compañía dijo que su asistente gratuito de IA usa menos datos a una fracción del costo de los servicios existentes. Claramente, su estrategia se destaca.
Algunas compañías han adoptado los modelos de la startup de IA china incluso con las controversias. De hecho, la aplicación superó a los chatgpt rivales estadounidenses en descargas de la tienda de aplicaciones de Apple, lo que provocó una venta de una venta global en acciones tecnológicas.
Deepseek ha entregado modelo tras modelo en un tiempo inusual de tiempo. Lanzó su nuevo modelo Deepseek-V3 en diciembre de 2024. A continuación, Deepseek-R1, Deepseek-R1-Zero y Deepseek-R1-Distill salieron el 20 de enero de 2025. El 27 de enero de 2025, la compañía agregó un nuevo Janus -Pro-7B AI Modelo, que se centra en la visión.
El modelo Deepseek-R1-Zero tiene 671 mil millones de parámetros, mientras que la serie Deepseek-R1-Distill incluye modelos con entre 1.500 millones y 70 mil millones de parámetros.
Ahora, Amazon Web Services (AWS), Microsoft y Google Cloud ofrecen el modelo a sus clientes. Pero a partir de ahora, no han comenzado a usar el sistema de precios por juicio que usan otros modelos de IA, como la Llama 3 de Meta.
Además, el lunes, los servicios en la nube de Alibaba Group ofrecieron los modelos AI de Deepseek en su plataforma. Los servicios en la nube de Baidu y Tencent también han anunciado que están ofreciendo modelos de Deepseek a sus usuarios.
Los analistas de Bernstein dijeron: " Deepseek demuestra que los modelos de lenguaje grandes competitivos (LLM) se pueden implementar en las chips 'suficientemente buenos' de China, aliviando la dependencia del hardware de los EE. UU.
Sin embargo, países como Italia y los Países Bajos han bloqueado el servicio y están investigando la aplicación AI de Deepseek debido a problemas de privacidad.
Los analistas de mercado insisten a los proveedores de la nube se beneficiarán más de los alquileres de infraestructura que las tarifas de uso del modelo directo.
Alquilar servidores en la nube para tareas de IA es técnicamente más costoso que usar modelos a través de API. AWS cobra hasta $ 124 por hora por un servidor en la nube que está optimizado para la IA. Esto cuesta alrededor de $ 90,000 al mes para el uso 24/7.
Los usuarios de Microsoft Azure no tienen que alquilar servidores especiales para Deepseek. Sin embargo, pagan por el poder informático que usan. Esto significa que el costo puede cambiar en función de qué tan bien ejecutan el modelo.
Por otro lado, los grupos que usan Meta's Llama 3.1 a AWS, pagan $ 3 por cada 1M tokens. Estas fichas son partes del texto, y 1,000 tokens son de aproximadamente 750 palabras.
Las compañías en la nube más pequeñas como Together AI y Fireworks AI han comenzado a usar un sistema de precios simple. Cargan una cantidad fija por cada token con su modelo Deepseek-R1.
Otra opción más barata para Deepseek-R1 es a través de la API de su empresa matriz a $ 2.19 por millón de tokens. Esto es de tres a cuatro veces más barato que algunos proveedores de nubes occidentales.
Academia Cryptopolitan: ¿Estás cometiendo estos errores de currículum de Web3? - Descúbrelo aquí