O Google compartilhou um documento de segurança em seu principal modelo de inteligência artificial, Gemini 2.5 Pro. Especialistas dizem que deixa os principais riscos inexplicáveis.
A empresa publicou o artigo na quinta -feira, várias semanas após a divulgação do Gemini 2.5 Pro para os clientes. O documento lista os testes internos que o Google foi executado no modelo, mas oferece poucos fatos sobre como o sistema se comporta sob sobrecarga ou uso indevido. Os pesquisadores que revisaram o artigo disseram ao TechCrunch que os detalhes ausentes dificultam a julgamento se o Gemini 2.5 Pro é realmente seguro para uso amplo.
Os relatórios técnicos são uma das principais maneiras pelas quais o público aprende o que os sistemas avançados de IA podem e não podem fazer. Um relatório completo geralmente mostra onde um modelo falha e onde pode ser mal utilizado. Muitos pesquisadores de IA tratam esses trabalhos como esforços honestos para apoiar as reivindicações de segurança de uma empresa.
O Google libera um relatório somente depois que um modelo não estiver mais marcado como "experimental", e move certas descobertas de "capacidade perigosa" para uma auditoria separada que não é publicada de uma só vez. Como resultado, o artigo público não cobre todas as ameaças que o Google testou.
Vários analistas disseram que o novo documento Gemini 2.5 Pro é um caso de divulgação limitada. Eles também notaram que o relatório nunca se refere à estrutura de segurança de fronteira do Google, ou FSF, uma política que a empresa anunciou no ano passado para identificar futuros poderes de IA que poderiam causar "danos severos".
"Este relatório é muito escasso, contém informações mínimas e chegou semanas depois que o modelo foi público", disse Peter Wildeford, co -fundador do Instituto de Política e Estratégia de IA. "É impossível confirmar se o Google está cumprindo suas próprias promessas e, portanto, impossível julgar a segurança de seus modelos".
Thomas Woodside, co -fundador do projeto de IA seguro, disse estar feliz por qualquer papel ter aparecido, mas duvidava do plano do Google de lançar acompanhamentos constantes. Ele ressaltou que a última vez que a empresa compartilhou os resultados de testes de capacidade perigosa foi em junho de 2024, e esse artigo abordou um modelo anunciado em fevereiro do mesmo ano.
A confiança caiu ainda mais quando os observadores não viram papel de segurança para o Gemini 2.5 Flash, um modelo mais fino e rápido revelado no Google na semana passada. Um porta -voz da empresa disse que um papel flash está "chegando em breve".
"Espero que seja uma promessa real de começar a dar atualizações mais frequentes", disse Woodside. "Essas atualizações devem incluir resultados para modelos que ainda não chegaram ao público, porque esses modelos também podem representar riscos sérios".
A Nota de Segurança da Meta para seus novos modelos LLAMA 4 executa apenas algumas páginas, enquanto o OpenAI optou por não publicar nenhum relatório para sua série GPT -4.1.
A escassez de detalhes ocorre em um tempo tenso. Dois anos atrás, o Google disse ao governo dos EUA que publicaria documentos de segurança para cada modelo de IA "significativo" dentro do escopo ". A empresa fez promessas semelhantes aos funcionários de outros países, dizendo que ofereceria "transparência pública" sobre seus produtos de IA.
Kevin Bankston, consultor sênior de governança de IA no Centro de Democracia e Tecnologia, chamou os lançamentos dos principais laboratórios de "corrida ao fundo" da segurança.
"Combinados com relatos de que laboratórios rivais como o OpenAI reduziram o tempo de teste de segurança antes do lançamento de meses para dias, essa escassa documentação para o modelo principal do Google conta uma história preocupante de uma corrida para o fundo da segurança e transparência da IA, à medida que as empresas apressam seus modelos para o mercado", acrescentou.
O Google diz que grande parte de seu trabalho de segurança acontece a portas fechadas. A empresa afirma que todo modelo passa por testes rígidos, incluindo "equipes vermelhas adversárias", antes de qualquer lançamento público.
Academia Cryptopolitan: em breve - uma nova maneira de obter renda passiva com DeFi em 2025. Saiba mais