As iniciativas fazem parte dos esforços da empresa na acirrada competição da indústria de tecnologia contra empresas como Meta, Microsoft e Meta. Pichai também revelou o modelo mais recente, com recursos multimodais que serão implementados em seus produtos, incluindo imagem nativa e saída de áudio. A gigante dos mecanismos de busca lançou o Gemini 1.0 em dezembro do ano passado, que o Google disse ser o primeiro modelo “nativamente multimodal”, sugerindo que o modelo poderia processar e responder a consultas de texto, vídeo, imagem, áudio e código. A versão mais recente representa os esforços mais recentes do Google na corrida cada vez mais competitiva da IA da indústria de tecnologia. “Se o Gemini 1.0 tratava de organizar e compreender informações, o Gemini 2.0 tratava de torná-las muito mais úteis.” Pichai. O Gemini 2.0 chega quase 10 meses depois que o Google lançou o 1.5. O modelo ainda está em pré-visualização experimental, segundo o Google, com apenas uma versão do modelo, o Flash 2.0 menor e de baixo custo, lançado. O CEO do Google DeepMind e chefe dos esforços de IA da empresa, Demis Hassabis, disse que este ainda era um grande dia para a gigante da tecnologia. “É tão bom quanto o modelo Pro atual. Portanto, você pode pensar nisso como uma camada melhor, com a mesma eficiência de custo, eficiência de desempenho e velocidade. Estamos muito felizes com isso”, explicou Hassabis. Atualmente, apenas os desenvolvedores e testadores são os primeiros a obter o 2.0, enquanto outros usuários do Gemini têm acesso ao modelo experimental do Flash 2.0, que se baseia no Flash 1.5, que foi lançado como o modelo mais rápido e econômico. Segundo a empresa, espera adicionar as capacidades de raciocínio do novo modelo ao recurso AI Overviews, que agora está acessível a um bilhão de usuários, segundo Pichai. Ele indicou que está se tornando um dos recursos de pesquisa mais populares do grupo. Com este novo modelo, Pichai destacou ainda que as visões gerais de IA agora serão capazes de lidar com consultas complexas em várias etapas, por exemplo, equações matic e questões multimodais. Embora os testes limitados para o modelo mais recente tenham começado esta semana, o recurso de raciocínio só estará acessível para mais usuários no início do próximo ano. De acordo com o Google, o modelo de raciocínio baseia-se no chip de IA de 6ª geração do gigante dos mecanismos de busca, Trillium, que também foi disponibilizado para clientes do Google Cloud na quarta-feira. Em sua postagem no blog, o Google revelou que o novo chip oferece desempenho 4 vezes melhor e é 67% mais eficiente em termos energéticos que seu antecessor. Estamos iniciando nossa era Gemini 2.0 com Gemini 2.0 Flash, que supera o 1.5 Pro nos principais benchmarks com velocidade 2X (veja o gráfico abaixo). Estou especialmente animado para ver o rápido progresso na codificação, com mais por vir. Os desenvolvedores podem experimentar uma versão experimental em IA… pic.twitter.com/iEAV8dzkaW — Sundar Pichai (@sundarpichai) 11 de dezembro de 2024 The Google CEO also announced other features, such as the new Gemini feature known as Deep Research which can act as a research assistant by using advanced reasoning and long context capabilities. This new feature is available in Gemini Advanced and is capable of compiling research reports on behalf of a user. Hassabis said that Gemini 2.0 was laying the foundation for a great 2025. “We really see 2025 as the true start of the agent-based era.” Hassabis. This comes as the company announced the launch of another product, Project Mariner, an experimental new Chrome extension that can literally use a web browser for users. Additionally, Google also announced that Jules – an agent created specifically to help developers find and fix bad code- and a new Gemini 2.0-based agent that can look at users’ screens and help them play video games better. According to Hassabis, the game agent which he calls an “Easter egg” points to it being truly multimodal. From Zero to Web3 Pro: Your 90-Day Career Launch Plan O Google implementará o modelo em todos os produtos
O Google anunciou uma série de novos recursos