Image by Justin Lane, from Unsplash
Cientistas Ocultam Códigos de Luz para Expor Vídeos Falsos de IA
Pesquisadores da Cornell desenvolveram uma nova tecnologia para ajudar os verificadores de fatos a detectar vídeos falsos ou manipulados, e fizeram isso incorporando marcas d’água secretas na luz.
Está com pressa? Aqui estão os fatos rápidos:
- Pesquisadores de Cornell desenvolveram marcas d’água baseadas em luz para detectar vídeos falsos ou alterados.
- O método esconde códigos secretos em flutuações de iluminação quase invisíveis.
- As marcas d’água funcionam independentemente da câmera usada para gravar as imagens.
Os pesquisadores explicam que este método esconde flutuações quase invisíveis na iluminação durante eventos importantes ou em locais-chave, como coletivas de imprensa ou até mesmo prédios inteiros.
Essas flutuações, imperceptíveis ao olho humano, são capturadas em qualquer vídeo filmado sob a iluminação especial, que pode ser programada em telas de computador, lâmpadas de fotografia ou luminárias embutidas já existentes.
“O vídeo costumava ser tratado como uma fonte de verdade, mas essa não é mais uma suposição que podemos fazer”, disse Abe Davis, professor assistente de ciência da computação em Cornell, que concebeu a ideia.
“Agora você pode basicamente criar vídeos do que quiser. Isso pode ser divertido, mas também problemático, porque está cada vez mais difícil distinguir o que é real”, acrescentou Davis.
As técnicas tradicionais de marca d’água modificam diretamente os arquivos de vídeo, exigindo a cooperação da câmera ou do modelo de IA usado para criá-los. Davis e sua equipe contornaram essa limitação, incorporando o código na própria iluminação, garantindo que qualquer vídeo real do assunto contenha a marca d’água oculta, não importa quem o grave.
Cada luz codificada produz um “vídeo codificado” de baixa fidelidade e com marcação temporal da cena sob uma iluminação ligeiramente diferente. “Quando alguém manipula um vídeo, as partes manipuladas começam a contradizer o que vemos nesses vídeos codificados”, explicou Davis.
“E se alguém tenta gerar um vídeo falso com IA, os vídeos codificados resultantes parecem apenas variações aleatórias”, acrescentou Davis.
O líder do projeto, Peter Michael, explicou que a equipe criou códigos de luz imperceptíveis, baseando-se em pesquisas sobre a percepção humana. O sistema usa padrões normais de “ruído” de iluminação para tornar a detecção desafiadora sem a chave secreta. As luzes programáveis podem ser codificadas com software, enquanto lâmpadas mais antigas podem usar um pequeno chip do tamanho de um selo postal.
A equipe conseguiu a implementação bem-sucedida de até três códigos separados para diferentes luzes dentro da mesma cena, o que aumenta significativamente a dificuldade de falsificá-los. O sistema demonstrou sua eficácia ao ar livre e em várias tonalidades de pele.
No entanto, Davis avisa que a batalha contra a desinformação está longe de terminar. “Este é um problema contínuo importante”, disse ele. “Não vai desaparecer, e na verdade, só vai se tornar mais difícil.”