Home Notícias Golpes com tecnologia de IA e o que você pode fazer sobre...

Golpes com tecnologia de IA e o que você pode fazer sobre eles

23
0

A IA está aqui para ajudar, seja redigindo um e-mail, criando alguma arte conceitual ou aplicando um golpe em pessoas vulneráveis, fazendo-as pensar que você é um amigo ou parente em perigo. A IA é tão versátil! Mas como algumas pessoas preferem não ser enganadas, vamos falar um pouco sobre o que observar.

Os últimos anos têm visto um grande aumento não apenas na qualidade da mídia gerada, de texto a áudio, imagens e vídeo, mas também em quão barata e facilmente essa mídia pode ser criada. O mesmo tipo de ferramenta que ajuda um artista conceitual a inventar alguns monstros ou naves espaciais de fantasia, ou permite que um falante não nativo melhore seu inglês comercial, pode ser usado para fins maliciosos também.

Não espere que o Exterminador do Futuro bata à sua porta e lhe convença a fazer um esquema Ponzi — esses são os mesmos golpes de sempre que enfrentamos há anos, mas com um toque de IA generativa que os torna mais fáceis, baratos ou convincentes.

Esta não é de forma alguma uma lista completa, apenas alguns dos truques mais óbvios que a IA pode sobrecarregar. Teremos certeza de adicionar notícias à medida que aparecerem, ou quaisquer medidas adicionais que você possa tomar para se proteger.

Clonagem de voz de familiares e amigos

As vozes sintéticas existem há décadas, mas foi apenas nos últimos dois anos que os avanços na tecnologia permitiram que uma nova voz fosse gerada a partir de apenas alguns segundos de áudio. Isso significa que qualquer pessoa cuja voz tenha sido transmitida publicamente – por exemplo, numa reportagem, num vídeo do YouTube ou nas redes sociais – está vulnerável a ter a sua voz clonada.

Golpistas podem e têm usado essa tecnologia para produzir versões falsas convincentes de entes queridos ou amigos. Eles podem ser obrigados a dizer qualquer coisa, é claro, mas a serviço de um golpe, eles provavelmente farão um clipe de voz pedindo ajuda.

Por exemplo, um pai pode receber uma mensagem de voz de um número desconhecido que parece ser o de seu filho, dizendo como suas coisas foram roubadas durante uma viagem, uma pessoa permitiu que ele usasse seu telefone e a mãe ou o pai poderiam enviar algum dinheiro para este endereço, destinatário do Venmo , negócios, etc. Pode-se facilmente imaginar variantes com problemas no carro (“eles não vão liberar meu carro até que alguém os pague”), problemas médicos (“este tratamento não é coberto pelo seguro”) e assim por diante.

Esse tipo de golpe já foi feito com a voz do presidente Biden! Eles pegaram os responsáveis ​​​​por isso, mas os futuros golpistas serão mais cuidadosos.

Como você pode lutar contra a clonagem de voz?

Primeiro, não se incomode em tentar identificar uma voz falsa. Elas estão melhorando a cada dia, e há muitas maneiras de disfarçar quaisquer problemas de qualidade. Até mesmo especialistas são enganados!

Qualquer coisa vinda de um número, endereço de e-mail ou conta desconhecidos deve ser automaticamente considerado suspeito. Se alguém disser que é seu amigo ou ente querido, vá em frente e entre em contato com a pessoa da maneira que você normalmente faria. Eles provavelmente dirão que estão bem e que é (como você adivinhou) um golpe.

Golpistas tendem a não dar continuidade se forem ignorados — enquanto um membro da família provavelmente fará isso. Não tem problema deixar uma mensagem suspeita no modo lido enquanto você considera.

Phishing e spam personalizados via e-mail e mensagens

Todos nós recebemos spam de vez em quando, mas a IA de geração de texto está possibilitando o envio de e-mails em massa personalizados para cada indivíduo. Com violações de dados acontecendo regularmente, muitos dos seus dados pessoais estão por aí.

Uma coisa é receber um desses e-mails de golpe do tipo “Clique aqui para ver sua fatura!” com anexos obviamente assustadores que parecem tão pouco esforço. Mas mesmo com um pouco de contexto, eles de repente se tornam bastante críveis, usando localizações, compras e hábitos recentes para fazer parecer uma pessoa real ou um problema real. Armado com alguns fatos pessoais, um modelo de linguagem pode personalizar um genérico desses e-mails para milhares de destinatários em questão de segundos.

Então, o que antes era “Caro cliente, por favor, encontre sua fatura em anexo” se torna algo como “Olá, Doris! Estou com a equipe de promoções da Etsy. Um item que você estava olhando recentemente agora está com 50% de desconto! E o frete para seu endereço em Bellingham é grátis se você usar este link para reivindicar o desconto.” Um exemplo simples, mas ainda assim. Com um nome real, hábito de compras (fácil de descobrir), localização geral (idem) e assim por diante, de repente a mensagem é muito menos óbvia.

No final, isso ainda é apenas spam. Mas esse tipo de spam personalizado antes tinha que ser feito por pessoas mal pagas em fazendas de conteúdo em países estrangeiros. Agora, pode ser feito em escala por um LLM com melhores habilidades de prosa do que muitos escritores profissionais!

Como você pode combater o spam por e-mail?

Tal como acontece com o spam tradicional, a vigilância é a sua melhor arma. Mas não espere ser capaz de distinguir o texto gerado do texto escrito por humanos em estado selvagem. São poucos os que conseguem, e certamente não (apesar das afirmações de algumas empresas e serviços) outro modelo de IA.

Por melhor que seja o texto, esse tipo de golpe ainda tem o desafio fundamental de fazer com que você abra anexos ou links incompletos. Como sempre, a menos que você tenha 100% de certeza da autenticidade e identidade do remetente, não clique nem abra nada. Se você estiver um pouco inseguro – e é um bom senso cultivar – não clique, e se você tiver alguém com conhecimento para encaminhá-lo para um segundo par de olhos, faça isso.

Fraude de verificação e identificação falsa

Devido ao número de violações de dados nos últimos anos (obrigado, Equifax!), é seguro dizer que quase todos nós temos uma quantidade razoável de dados pessoais flutuando na dark web. Se você estiver seguindo boas práticas de segurança online, muito do perigo é mitigado porque você alterou suas senhas, habilitou a autenticação multifator e assim por diante. Mas a IA generativa pode apresentar uma nova e séria ameaça nessa área.

Com tantos dados disponíveis on-line sobre alguém e, para muitos, até mesmo um ou dois clipes de sua voz, é cada vez mais fácil criar uma persona de IA que pareça uma pessoa-alvo e tenha acesso a muitos dos fatos usados ​​para verificar a identidade.

Pense assim. Se você estivesse com problemas para fazer login, não conseguisse configurar seu aplicativo de autenticação corretamente ou perdesse seu telefone, o que faria? Ligue para o serviço de atendimento ao cliente, provavelmente — e eles “verificariam” sua identidade usando alguns fatos triviais como sua data de nascimento, número de telefone ou número do Seguro Social. Métodos ainda mais avançados como “tirar uma selfie” estão se tornando mais fáceis de burlar.

O agente de atendimento ao cliente – pelo que sabemos, também uma IA! – pode muito bem agradar esse falso e conceder-lhe todos os privilégios que você teria se realmente ligasse. O que eles podem fazer nessa posição varia muito, mas nada disso é bom!

Assim como os outros nesta lista, o perigo não é tanto o quão realista esse falso você seria, mas que é fácil para os golpistas fazerem esse tipo de ataque de forma ampla e repetida. Não muito tempo atrás, esse tipo de ataque de personificação era caro e demorado e, como consequência, seria limitado a alvos de alto valor, como pessoas ricas e CEOs. Hoje em dia, você pode criar um fluxo de trabalho que cria milhares de agentes de personificação com supervisão mínima, e esses agentes podem ligar autonomamente para os números de atendimento ao cliente em todas as contas conhecidas de uma pessoa — ou até mesmo criar novas! Apenas um punhado precisa ser bem-sucedido para justificar o custo do ataque.

Como você pode lutar contra fraudes de identidade?

Assim como acontecia antes das IAs reforçarem os esforços dos golpistas, “Cybersecurity 101” é sua melhor aposta. Seus dados já estão disponíveis; você não pode colocar a pasta de dente de volta no tubo. Mas você pode certifique-se de que suas contas estejam adequadamente protegidas contra os ataques mais óbvios.

A autenticação multifator é facilmente a etapa mais importante que qualquer pessoa pode realizar aqui. Qualquer tipo de atividade séria na conta vai direto para o seu telefone, e logins suspeitos ou tentativas de alteração de senha aparecerão no e-mail. Não negligencie esses avisos nem os marque como spam, mesmo (especialmente!) se você estiver recebendo muitos.

Deepfakes e chantagem gerados por IA

Talvez a forma mais assustadora de golpe de IA nascente seja a possibilidade de chantagem usando imagens falsas suas ou de um ente querido. Você pode agradecer ao mundo em rápida evolução dos modelos de imagens abertas por esta perspectiva futurística e aterrorizante! Pessoas interessadas em certos aspectos da geração de imagens de ponta criaram fluxos de trabalho não apenas para renderizar corpos nus, mas também para anexá-los a qualquer rosto do qual possam tirar uma foto. Não preciso entrar em detalhes sobre como ele já está sendo usado.

Mas uma consequência não intencional é uma extensão do golpe comumente chamado de “pornografia de vingança”, mas descrito com mais precisão como distribuição não consensual de imagens íntimas (embora, como “deepfake”, possa ser difícil substituir o termo original). Quando as imagens privadas de alguém são divulgadas através de hackers ou de um ex vingativo, elas podem ser usadas como chantagem por terceiros que ameaçam publicá-las amplamente, a menos que uma quantia seja paga.

A IA aprimora esse golpe, fazendo com que, em primeiro lugar, não exista a necessidade de imagens íntimas reais! O rosto de qualquer pessoa pode ser adicionado a um corpo gerado por IA e, embora os resultados nem sempre sejam convincentes, provavelmente é o suficiente para enganar você ou outras pessoas se estiver pixelizado, de baixa resolução ou parcialmente ofuscado. E isso é tudo o que é necessário para assustar alguém e fazê-lo pagar para mantê-lo em segredo – embora, como a maioria dos golpes de chantagem, é improvável que o primeiro pagamento seja o último.

Como você pode lutar contra deepfakes gerados por IA?

Infelizmente, o mundo para o qual estamos caminhando é um onde imagens falsas de nus de quase qualquer pessoa estarão disponíveis sob demanda. É assustador, estranho e nojento, mas infelizmente o gato saiu da bolsa aqui.

Ninguém está feliz com esta situação, exceto os bandidos. Mas há algumas coisas acontecendo para todas nós, vítimas em potencial. Pode ser um conforto frio, mas essas imagens não são realmente suas, e não são necessárias fotos reais de nudez para provar isso. Esses modelos de imagem podem produzir corpos realistas de algumas maneiras, mas, como outras IAs generativas, eles só sabem no que foram treinados. Portanto, as imagens falsas não terão quaisquer marcas distintivas, por exemplo, e provavelmente estarão obviamente erradas em outros aspectos.

E embora a ameaça provavelmente nunca diminua completamente, há cada vez mais recursos para as vítimas, que podem legalmente obrigar os anfitriões de imagens a retirarem as imagens ou banir os golpistas dos sites onde publicam. À medida que o problema cresce, também aumentam os meios legais e privados de combatê-lo.

O TechCrunch não é um advogado! Mas se você for vítima disso, conte à polícia. Não é apenas um golpe, mas assédio, e embora você não possa esperar que os policiais façam o tipo de trabalho de detetive profundo na internet necessário para rastrear alguém, esses casos às vezes são resolvidos, ou os golpistas ficam assustados com solicitações enviadas ao seu ISP ou host do fórum.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here