
Image by Phạm Trần Hoàn Thịnh, from Unsplash
A IA está Impulsionando um Aumento nos Golpes de Sextorção em Aplicativos de Namoro
A inteligência artificial está facilitando para que golpistas executem esquemas de sextorção em aplicativos de namoro, levantando preocupações urgentes para adolescentes, estudantes e funcionários da lei.
Com pressa? Aqui estão os fatos rápidos:
- Os golpes de sextorsão estão aumentando drasticamente, especialmente entre adolescentes e estudantes.
- Golpistas se passam por interesses românticos usando bots e perfis falsos.
- Quase 8.000 casos de chantagem relacionados à sextorsão foram registrados no Reino Unido em 2023
A prática de sextorção existe há algum tempo, mas a tecnologia de IA permite que criminosos criem identidades falsas mais convincentes. Isso permite que eles acelerem o contato com a vítima e produzam conteúdo sexual artificial por meio da tecnologia deepfake, conforme relatado pelo Vice.
O FBI define sextortion como um método em que criminosos enganam menores para compartilhar fotos explícitas antes de exigir imagens adicionais ou dinheiro como pagamento para prevenir a divulgação dessas fotos.
Os criminosos estão agora usando perfis gerados por IA para criar falsos interesses românticos, muitas vezes usando fotos deepfake e chatbots. O FBI alerta que as vítimas geralmente confundem os golpistas com colegas que oferecem conexões românticas ou presentes, mas estão, na verdade, sendo manipuladas.
Os golpes de chantagem envolvendo estudantes aumentaram significativamente, de acordo com a Agência Nacional de Crimes. Dados da BBC indicam que o número de casos de chantagem envolvendo sextorsão subiu para 8.000 em 2023, enquanto o total era de apenas 23 em 2014.
A BBC relata que Jim Winters, chefe de crimes econômicos na Nationwide, aconselhou os jovens a não ficarem em silêncio: “A chantagem é uma das situações mais difíceis de enfrentar e está acontecendo com mais frequência. Não é fácil, mas se algo não parecer certo, fale a respeito-”
Golpistas agora utilizam a tecnologia de deepfake para sobrepor imagens faciais de vítimas em conteúdos pornográficos, mesmo que as vítimas nunca tenham compartilhado material explícito. Essa nova tática de chantagem elimina a necessidade de as vítimas compartilharem conteúdo antes do início da chantagem.
A BBC sugere que um golpe pode ser identificado através de frases repetidas em mensagens, fotos de perfil impecáveis e padrões de diálogo não naturais. Especialistas do BPS sugerem o uso de pesquisas reversas para verificar imagens suspeitas. No entanto, esses métodos se tornam menos eficazes quando se lida com conteúdo gerado por IA.
Especialistas enfatizam a necessidade de um diálogo aberto, educação e estratégias de prevenção atualizadas, já que existem poucas pesquisas sobre como a IA apoia esses crimes. Esses esforços são essenciais para proteger os mais vulneráveis de ameaças digitais.