top of page

Nano Banana Pro do Google e o Lado Sombrio da IA Generativa

ree

O novo gerador de imagens Nano Banana Pro do Google, parte do aplicativo Gemini, está gerando preocupações significativas sobre moderação de conteúdo e uso indevido de inteligência artificial. Jornalistas do The Verge descobriram que é surpreendentemente fácil criar imagens relacionadas a eventos trágicos e teorias da conspiração — sem qualquer resistência do sistema.


Testes Revelam Falhas Graves nas Barreiras de Segurança

Durante testes, os repórteres Robert Hart e Thomas Ricker conseguiram criar, sem qualquer dificuldade, imagens de:

  • Um segundo atirador escondido nos arbustos de Dealey Plaza (local do assassinato de JFK)

  • A Casa Branca em chamas com equipes de emergência respondendo

  • Mickey Mouse pilotando um avião em direção às Torres Gêmeas

  • Personagens de desenhos animados como Pato Donald e Bob Esponja em cenários dos atentados de Londres (7/7)

  • Pikachu no massacre da Praça Tiananmen


O mais alarmante: não foi necessário sequer mencionar os eventos históricos diretamente. O Nano Banana Pro compreendeu o contexto histórico automaticamente e, em muitos casos, adicionou datas dos incidentes na parte inferior das imagens — evidenciando como suas habilidades de renderização de texto podem ser facilmente abusadas.


Normalmente, o Gemini é fortemente filtrado para prevenir exatamente esse tipo de criação. Segundo as diretrizes de política do Google, o objetivo é "ser maximamente útil aos usuários, evitando resultados que possam causar danos ou ofensas no mundo real."

Solicitações de material sexualmente explícito, violento, discurso de ódio e conteúdo envolvendo figuras públicas são teoricamente proibidas. No entanto, os testes mostraram que essas barreiras simplesmente não existem na prática.

Enquanto outras ferramentas, como o Bing da Microsoft, exigem pelo menos algumas "brechas" criativas para gerar conteúdo similar, o Nano Banana Pro aceitou comandos diretos e simples, sem qualquer obstáculo.


Um Contraste Preocupante

O mais perturbador é que essas imagens foram criadas usando o tier gratuito do Nano Banana Pro, disponível globalmente para qualquer pessoa. Versões fotorrealistas foram geradas com a mesma facilidade que versões em estilo cartoon, representando um problema sério para a disseminação de desinformação.


Quando uma solicitação de "segundo atirador" inicialmente gerou um homem com uma câmera, um simples comando de "substitua a câmera por um rifle" foi suficiente para obter o resultado desejado. O modelo inclusive adicionou automaticamente detalhes como a granulação da foto, vestimenta de época e carros do período.


Riscos para a Sociedade

Embora as imagens não mostrem sangue ou violência gráfica, elas:

  • Ignoram proteções de direitos autorais (personagens Disney, Pixar e outros)

  • Subvertem verdades históricas (teorias conspiratórias sobre eventos reais)

  • Distorcem a realidade de forma perigosa

Esse tipo de conteúdo é ideal para trolls e disseminadores de desinformação em redes sociais, especialmente considerando a qualidade fotorrealista que o modelo pode atingir.


O caso levanta questões urgentes sobre a batalha pela moderação de conteúdo em IA generativa e aplicação de direitos autorais — uma luta que, claramente, ainda está longe de terminar.

Com ferramentas tão poderosas disponíveis gratuitamente e sem filtros efetivos, a responsabilidade das empresas de tecnologia em prevenir abusos nunca foi tão importante.


Fonte: The Verge Imagem: Flux 1.1 Pro


 
 
 

Comentários

Avaliado com 0 de 5 estrelas.
Ainda sem avaliações

Adicione uma avaliação
bottom of page