Saiba por que o relatório de segurança da IA Gemini do Google está sendo criticado por falta de transparência. Entenda as preocupações levantadas pela comunidade especializada e as falhas apontadas por especialistas.
Google é criticado por falta de transparência no relatório de segurança do Gemini AI
O Google publicou um relatório técnico sobre o Gemini 2.5 Pro, sua avançada IA, levantando preocupações por conter poucos detalhes sobre os riscos potenciais. Especialistas consideram o material superficial e criticam a falta de informações específicas que dificultam a verificação dos compromissos de segurança e transparência. Diferente de outras empresas, o Google só divulga relatórios técnicos após a fase experimental, omitindo análises de capacidades perigosas. A ausência dessas informações compromete a confiança no processo de segurança da empresa. Thomas Woodside do Secure AI Project reconheceu a iniciativa, mas questionou a regularidade das atualizações e a falta do relatório técnico do Gemini 2.5 Flash. A Meta e a OpenAI também estão sob críticas por falta de transparência. Para Kevin Bankston, do Center for Democracy and Technology, a documentação limitada representa um sério problema de segurança e transparência. Mesmo sem detalhes nos relatórios técnicos, o Google afirma realizar testes de segurança antes dos lançamentos.
Fonte: olhardigital.com.br