Apesar do apelo visual e da facilidade de uso, especialistas em cibersegurança alertam: esses recursos vêm acompanhados de riscos consideráveis à privacidade Imagens hiper-realistas de 'bonecos de ação' personalizados inundaram as redes sociais nas últimas semanas, em uma nova tendência viral impulsionada pelo ChatGPT. Com a ajuda da nova funcionalidade de geração de imagens da OpenAI, baseada no modelo GPT-4o, usuários estão criando versões estilizadas de si mesmos com detalhes como fones de ouvido, tapetes de yoga e copos reutilizáveis. Outra febre recente: retratos no estilo dos estúdios Ghibli. Apesar do apelo visual e da facilidade de uso, especialistas em cibersegurança alertam: esses recursos vêm acompanhados de riscos consideráveis à privacidade. Ao carregar uma imagem para edição, o usuário pode estar entregando não apenas seu rosto, mas também metadados, padrões de comportamento e até informações sensíveis presentes no fundo da foto. O que está em jogo 'Cada imagem enviada pode conter dados como hora, localização e configurações da câmera', explica Tom Vazdar, especialista em cibersegurança do Open Institute of Technology. Além disso, a OpenAI coleta dados do dispositivo utilizado, sistema operacional e interações com a plataforma. A OpenAI afirma não usar essas informações para criar perfis nem para publicidade, mas seu próprio aviso de privacidade admite que imagens podem ser armazenadas e usadas para treinar modelos futuros—exceto quando o usuário opta explicitamente por sair dessa coleta. Esse tipo de dado, especialmente fotos faciais voluntariamente fornecidas, é valioso para aprimorar modelos multimodais. 'É uma mina de ouro para o treinamento de IA generativa, com diversidade demográfica inédita', diz Vazdar. Onde a lei se aplica – e onde não Na União Europeia e no Reino Unido, a coleta de dados biométricos exige consentimento explícito, mas imagens transformadas em desenhos ou caricaturas dificilmente entram nessa categoria, segundo a advogada Melissa Hall. Nos Estados Unidos, onde não há uma regulação federal unificada, a proteção varia de estado para estado, o que cria brechas jurídicas para o uso dessas imagens. 'Mesmo que a plataforma prometa não comercializar os dados, não há clareza sobre como e por quanto tempo sua imagem pode ser usada nos treinamentos futuros', alerta Annalisa Checchi, do escritório Ionic Legal. Como se proteger A OpenAI oferece ferramentas para gerenciar dados, como desativar o histórico de conversas e controlar o uso de dados para treino. Usuários também podem exportar ou excluir seus dados diretamente nas configurações. Especialistas recomendam medidas adicionais: usar imagens editadas, remover metadados antes de enviar uma foto, evitar fotos de terceiros sem consentimento e não compartilhar imagens com informações identificáveis no fundo, como crachás ou documentos. 'Privacidade e criatividade podem coexistir, desde que o usuário seja intencional', diz Checchi. À medida que o uso de ferramentas como o ChatGPT cresce, fica claro que a empolgação com tendências virais precisa vir acompanhada de consciência sobre os dados compartilhados—principalmente quando o preço da diversão pode ser a sua própria identidade digital.