A Microsoft está assediando usuários com o assistente de IA Copilot?
A Microsoft não está pedindo sua permissão para integrar seu assistente de IA Copilot em sua vida – ela está apenas fazendo isso. A empresa recentemente forçou o Copilot a usuários do Microsoft 365 na Austrália e em partes do Sudeste Asiático. E como se a decisão não fosse irritante o suficiente, eles acrescentaram um aumento de preços.
Nessas regiões, o Microsoft 365 – conhecido por Word, Excel e PowerPoint – agora inclui o Copilot, quer os clientes queiram ou não. Usuários como Alistair Fleming, YouTuber na Austrália, estão descobrindo que suas contas mensais aumentaram.
“Passou de A$ 11 para A$ 16”, teria dito Fleming, e tudo o que conseguiu foi um assistente de IA hiperativo que não o deixava em paz. “Cada vez que eu terminava uma linha, o logotipo do arco-íris aparecia, oferecendo 'ajuda'. É irritante.”
Uma decisão desesperada de lucrar com IA
Este lançamento agressivo faz parte do plano da Microsoft para aproveitar o seu enorme investimento em IA. O Copilot, desenvolvido com tecnologia OpenAI, é uma peça-chave da estratégia do CEO Satya Nadella para expandir o domínio do software da empresa.
No início deste ano, a Microsoft lançou a versão premium do Copilot para consumidores nos Estados Unidos por US$ 20 por mês, além da assinatura padrão do Microsoft 365 de US$ 7.
A empresa alegou que era um assistente revolucionário, capaz de gerar e-mails, resumir reuniões e criar apresentações inteiras em PowerPoint. Mas se vale a pena o cash extra é uma questão muito debatida.
O problema é o seguinte: as pessoas não estão exatamente fazendo fila para usar o Copilot. Entre maio de 2023 e meados de dezembro, o aplicativo chatbot da Copilot foi baixado 37 milhões de vezes, segundo a Sensor Tower.
Enquanto isso, o ChatGPT da OpenAI arrecadou impressionantes 433 milhões de downloads no mesmo período. A Microsoft pode chamar isso de “sucesso”, mas não vamos fingir que o Copilot está ganhando algum concurso de popularidade.
Para empresas, o Copilot vem com um preço ainda mais alto – US$ 30 por usuário. Os clientes corporativos são o pão com manteiga da Microsoft, mas a resposta ao Copilot tem sido, na melhor das hipóteses, morna. Muitas empresas têm dúvidas sobre sua precisão, segurança dos dados e se realmente agregam valor.
Um porta-voz da Microsoft se recusou a comentar o quão felizes (ou insatisfeitos) os clientes corporativos estão, aderindo ao roteiro usual “cumprimos os padrões globais de privacidade”.
Microsoft quer abandonar OpenAI (mais ou menos)
Embora o Copilot dependa fortemente da tecnologia OpenAI, a Microsoft já está trabalhando em alternativas. A Reuters informou recentemente que a Microsoft está construindo seus próprios modelos de IA, como Phi-4, e personalizando modelos de peso aberto para potencializar o Copilot. O objetivo é reduzir custos e obter mais controle.
Esta é uma mudança notável em relação ao alarde anterior da Microsoft sobre sua parceria com a OpenAI. Em março de 2023, a empresa anunciou com orgulho a confiança do Copilot no GPT-4 da OpenAI. Agora, a Microsoft parece ansiosa para diminuir essa confiança.
Porém, não se trata de cortar totalmente os laços. A OpenAI está negociando a remoção de uma cláusula de seu acordo com a Microsoft que limita o acesso desta última a futuros modelos de inteligência artificial geral (AGI).
Se isso acontecer, a Microsoft poderá manter o acesso à tecnologia OpenAI de ponta sem restrições, mesmo enquanto constrói seus próprios sistemas.
Isenção de responsabilidade: este artigo representa apenas a opinião do autor e não pode ser usado como consultoria de investimento. O conteúdo do artigo é apenas para referência. Os leitores não devem tomar este artigo como base para investimento. Antes de tomar qualquer decisão de investimento, procure orientação profissional independente para garantir que você entenda os riscos.
Os Contratos por Diferença (CFDs) são produtos alavancados que podem resultar na perda de todo o seu capital. Esses produtos não são adequados para todos os clientes; por favor, invista com rigor. Consulte este arquivo para obter mais informações.