A maioria de nós já teve problemas irritantes Mensagens de WhatsApp de golpistas dizendo algo como: ‘Mãe, perdi meu telefone!’
Embora possam ser irritantes, são relativamente fáceis de ignorar.
Mas uma nova geração de golpes está replicando as vozes das próprias pessoas para pedir dinheiro, e eles podem ser muito convincentes.
Novos dados mostram que mais de um quarto dos adultos no Reino Unido (28%) afirmam ter sido alvo de um golpe de clonagem de voz de alta tecnologia no ano passado.
Ainda mais preocupante é que quase metade das pessoas (46%) nem sabe que é possível fazer isso, então, se forem alvos, é muito mais provável que se tornem vítimas.
Uma pesquisa com mais de 3.000 pessoas feita pelo Starling Bank revelou que golpes de clonagem de voz, em que a IA é usada para criar a voz de um amigo ou familiar a partir de apenas três segundos de áudio, agora são um problema generalizado.
Muitas vezes é fácil reunir muito mais do que três segundos de áudio de uma pessoa falando, agora que é comum postar muito nas mídias sociais.
Os golpistas podem então identificar os familiares da pessoa e usar a voz clonada para encenar uma ligação telefônica, mensagem de voz ou correio de voz pedindo dinheiro que é necessário com urgência.
Na pesquisa, quase 1 em cada 10 (8%) disse que enviaria o que precisasse nessa situação, mesmo que achasse a ligação estranha – potencialmente colocando milhões em risco.
Apesar da prevalência dessa tentativa de tática de fraude, apenas 30% dizem que saberiam com segurança o que procurar se estivessem sendo alvo de um golpe de clonagem de voz.
O Starling Bank pediu que as pessoas não confiem apenas em seus ouvidos, mas que combinem uma palavra-código ou frase com seus entes queridos para que eles tenham uma maneira de verificar se são quem dizem ser.
Eles lançaram o ‘Frases Seguras’ campanha em apoio à campanha do governo ‘Pare! Pense em Fraude’, encorajando o público a concordar com uma frase com seus amigos próximos e familiares que ninguém mais conhece.
Então, se alguém for contatado por alguém que se apresenta como amigo ou familiar e não souber a frase, ele poderá ser imediatamente alertado sobre o fato de que provavelmente se trata de um golpe.
Os crimes de fraude financeira estão aumentando na Inglaterra e no País de Gales, aumentando 46% no ano passado.
A pesquisa Starling descobriu que o adulto médio do Reino Unido foi alvo de um golpe fraudulento cinco vezes nos últimos 12 meses
Lisa Grahame, diretora de segurança da informação do banco, disse: “As pessoas publicam regularmente conteúdo online com gravações de suas vozes, sem nunca imaginar que isso as torna mais vulneráveis a fraudadores.
‘É mais importante do que nunca que as pessoas estejam cientes desses tipos de golpes perpetrados por fraudadores e saibam como proteger a si mesmas e seus entes queridos de serem vítimas.’
Para lançar a campanha, o ator James Nesbitt concordou em ter sua própria voz clonada pela tecnologia de IA, demonstrando o quão fácil é para qualquer um ser enganado.
Ele disse: ‘Acho que tenho uma voz bem distinta, e isso é essencial para minha carreira. Então, ouvi-la clonada com tanta precisão foi um choque.
‘Você ouve muito sobre IA, mas essa experiência realmente abriu meus olhos (e ouvidos) para o quão avançada a tecnologia se tornou, e quão fácil é ser usada para atividades criminosas se cair em mãos erradas. Eu tenho filhos, e a ideia de eles serem enganados dessa forma é realmente assustadora. Definitivamente, vou estabelecer uma frase segura com minha própria família e amigos.’
Entre em contato com nossa equipe de notícias enviando um e-mail para webnews@metro.co.uk.
Para mais histórias como esta, confira nossa página de notícias.
MAIS: Não consegue falar com seu banco? 4 maneiras de exigir o serviço que você merece
MAIS: ‘Como espero que a IA generativa acelere o desenvolvimento de videogames’
MAIS: Plano de Putin para guerra psicológica secreta é revelado em vazamento bombástico
Receba as últimas notícias, histórias de bem-estar, análises e muito mais
Este site é protegido pelo reCAPTCHA e pelo Google política de Privacidade e Termos de serviço aplicar.