Nano Banana Pro do Google e o Lado Sombrio da IA Generativa
- Celso Junior
- 21 de nov.
- 2 min de leitura

O novo gerador de imagens Nano Banana Pro do Google, parte do aplicativo Gemini, está gerando preocupações significativas sobre moderação de conteúdo e uso indevido de inteligência artificial. Jornalistas do The Verge descobriram que é surpreendentemente fácil criar imagens relacionadas a eventos trágicos e teorias da conspiração — sem qualquer resistência do sistema.
Testes Revelam Falhas Graves nas Barreiras de Segurança
Durante testes, os repórteres Robert Hart e Thomas Ricker conseguiram criar, sem qualquer dificuldade, imagens de:
Um segundo atirador escondido nos arbustos de Dealey Plaza (local do assassinato de JFK)
A Casa Branca em chamas com equipes de emergência respondendo
Mickey Mouse pilotando um avião em direção às Torres Gêmeas
Personagens de desenhos animados como Pato Donald e Bob Esponja em cenários dos atentados de Londres (7/7)
Pikachu no massacre da Praça Tiananmen
O mais alarmante: não foi necessário sequer mencionar os eventos históricos diretamente. O Nano Banana Pro compreendeu o contexto histórico automaticamente e, em muitos casos, adicionou datas dos incidentes na parte inferior das imagens — evidenciando como suas habilidades de renderização de texto podem ser facilmente abusadas.
Normalmente, o Gemini é fortemente filtrado para prevenir exatamente esse tipo de criação. Segundo as diretrizes de política do Google, o objetivo é "ser maximamente útil aos usuários, evitando resultados que possam causar danos ou ofensas no mundo real."
Solicitações de material sexualmente explícito, violento, discurso de ódio e conteúdo envolvendo figuras públicas são teoricamente proibidas. No entanto, os testes mostraram que essas barreiras simplesmente não existem na prática.
Enquanto outras ferramentas, como o Bing da Microsoft, exigem pelo menos algumas "brechas" criativas para gerar conteúdo similar, o Nano Banana Pro aceitou comandos diretos e simples, sem qualquer obstáculo.
Um Contraste Preocupante
O mais perturbador é que essas imagens foram criadas usando o tier gratuito do Nano Banana Pro, disponível globalmente para qualquer pessoa. Versões fotorrealistas foram geradas com a mesma facilidade que versões em estilo cartoon, representando um problema sério para a disseminação de desinformação.
Quando uma solicitação de "segundo atirador" inicialmente gerou um homem com uma câmera, um simples comando de "substitua a câmera por um rifle" foi suficiente para obter o resultado desejado. O modelo inclusive adicionou automaticamente detalhes como a granulação da foto, vestimenta de época e carros do período.
Riscos para a Sociedade
Embora as imagens não mostrem sangue ou violência gráfica, elas:
Ignoram proteções de direitos autorais (personagens Disney, Pixar e outros)
Subvertem verdades históricas (teorias conspiratórias sobre eventos reais)
Distorcem a realidade de forma perigosa
Esse tipo de conteúdo é ideal para trolls e disseminadores de desinformação em redes sociais, especialmente considerando a qualidade fotorrealista que o modelo pode atingir.
O caso levanta questões urgentes sobre a batalha pela moderação de conteúdo em IA generativa e aplicação de direitos autorais — uma luta que, claramente, ainda está longe de terminar.
Com ferramentas tão poderosas disponíveis gratuitamente e sem filtros efetivos, a responsabilidade das empresas de tecnologia em prevenir abusos nunca foi tão importante.
Fonte: The Verge Imagem: Flux 1.1 Pro



Comentários