O lançamento do Gemini 2.5 Flash Image, apelidado de Nano-banana, gerou debates na internet sobre a superioridade da ferramenta do Google em relação aos concorrentes no que diz respeito à geração e edição de imagem.
De acordo com a empresa, a ferramenta foi aprimorada com foco em manter a semelhança de pessoas e animais presentes na imagem de uma foto para outra, de maneira que seja possível criar conteúdos realistas de si mesmo ou de outros.
No entanto, o que leva o Google a avançar na corrida pelo melhor editor de fotos com inteligência artificial?
À CNN, Marcos Barretto, professor da Poli-USP (Escola Politécnica da Universidade de São Paulo) e especialista em cibersegurança, Lei Geral de Proteção de Dados (LGPD) e automação, respondeu às principais perguntas sobre o assunto.
De acordo com ele, os lançamentos do Google ao longo dos últimos anos levaram à excelência das edições de imagem. Ferramentas como o DeepDream, de 2015, o Google Fotos, o Vision AI e o Google AI Studio, por exemplo, trouxeram novidades ao mercado que culminaram nas atualizações recentes.
O professor analisa que as novidades geram uma corrida entre as empresas desenvolvedoras de inteligência artificial para que suas ferramentas superem as funcionalidades das concorrentes.
“Daqui alguns meses, a atualização acaba sendo superada por outras, é uma corrida para gerar esse tipo de software. Uma corrida forte porque estamos falando de ferramentas de grande aplicação, particularmente essas de tratamento de imagem”, disse o especialista.
Correção de algoritmos
Problemas na geração de imagens por IA são comuns, como o homem de seis dedos que apareceu na capa de uma revista, rostos que parecem não pertencer ao corpo, pescoços tortos e braços quebrados — exemplificando as dificuldades na busca pela excelência dessas ferramentas.
“Não só o Google, mas todas as ferramentas, têm usado essa detecção de problemas de toda sorte, até questões éticas para conseguir ‘consertar’. Quando falamos sobre consertar com IAs, não é um bug que é consertado com um código. Em geral, é algo que vai mais longe, em termos de mudar itens na arquitetura do algoritmo ou trazer conjuntos de treinamento específicos para eliminar aquele problema”, explicou Marcos Barretto.
Segurança nas IAs
O envio de conteúdos para os chatbots que editam e geram imagens pode trazer problemas com vazamento de dados críticos e confidenciais. O recomendado é não enviar arquivos com informações sensíveis e estar atento aos contratos de segurança.
“Ao usar um software, você deve verificar quais são os termos de uso. Se os termos de uso implicam na permissão para o uso desses dados, pense se você não se importa que eles sejam usados para treinamento, o que, em algumas situações, é aceitável. Estamos colaborando com o mundo para que a gente tenha uma inteligência artificial melhor, mas sempre tomando cuidado”, alertou o professor da Poli-USP.
“Um dos grandes desafios do nosso tempo”
Identificar se um conteúdo foi ou não criado por uma ferramenta de inteligência artificial é um dos desafios da internet nos dias de hoje.
“Esse é o problema que tem se tornado crítico em tudo que a gente vive na realidade. Houve um tempo em que, para saber que uma coisa era verdadeira, pedíamos uma foto, depois começamos a pedir um vídeo e agora, a gente já não sabe mais quando uma pessoa existe de verdade ou se o que vemos é real”, disse Barretto.
Ele lembrou que algumas empresas usam códigos em pixels da imagem para que ela possa ser identificada como gerada por inteligência artificial, mas isso não é facilmente visualizado e pode não resolver o problema.