(Imagem: Rokas Tenys/Shutterstock)
Uma nova tendência está ganhando força no ChatGPT: usuários estão explorando as capacidades avançadas da IA para realizar o que chamam de “pesquisa de localização reversa” em fotos.
A popularidade crescente dessa prática levanta questões sobre privacidade e o potencial uso indevido do chatbot.
Usuários do X (antigo Twitter) rapidamente descobriram que o modelo o3, em particular, demonstra uma notável precisão em adivinhar cidades, pontos turísticos e até mesmo estabelecimentos comerciais como restaurantes e bares, tudo a partir de pistas visuais presentes nas imagens.
No exemplo abaixo, o ChatGPT usa até as cores da placa do carro para descobrir onde a imagem foi capturada:
Os modelos de IA não parecem depender de “memórias” de conversas anteriores ou de dados EXIF, metadados incorporados às fotos que podem revelar informações como o local onde foram capturadas. Em vez disso, a análise parece se basear puramente no conteúdo visual da imagem.
Apesar dos avanços, o o3 não é infalível nessa tarefa. Usuários do X também relataram inconsistências, com o modelo preso em loops de raciocínio sem conseguir chegar a uma resposta confiável ou sugerindo localizações incorretas.
O potencial problema de privacidade inerente a essa tendência é evidente. Nada impede que indivíduos mal-intencionados usem fotos compartilhadas em plataformas como o Instagram e utilizem o ChatGPT para tentar descobrir a localização exata da imagem e, consequentemente, da pessoa retratada.
Leia mais:
Nom fim, essa tendência ilustra os riscos de privacidade que acompanham o desenvolvimento de modelos de IA cada vez mais capazes. Surpreendentemente, parece que não há nenhuma proteção implementada para impedir esse tipo de “busca de localização reversa” no ChatGPT.
A OpenAI, a empresa por trás da ferramenta, também não abordou essa questão específica em seu relatório de segurança para os modelos o3 e o4-mini.
Esta post foi modificado pela última vez em 17 de abril de 2025 17:51