Nova Delhi:
A Microsoft alertou que a China está se preparando para atrapalhar as próximas eleições na Índia, nos Estados Unidos e na Coreia do Sul usando conteúdo gerado por inteligência artificial. O aviso ocorre depois que a China conduziu um teste durante as eleições presidenciais de Taiwan, empregando IA para influenciar o resultado.
Em todo o mundo, espera-se que pelo menos 64 países, além da União Europeia, realizem eleições nacionais. Estes países representam colectivamente cerca de 49 por cento da população mundial.
De acordo com a equipe de inteligência de ameaças da Microsoft, espera-se que grupos cibernéticos apoiados pelo Estado chinês, juntamente com o envolvimento da Coreia do Norte, tenham como alvo várias eleições marcadas para 2024. A Microsoft disse que a China provavelmente implantará conteúdo gerado por IA por meio da mídia social para influenciar a opinião pública em favor dos seus interesses durante estas eleições.
“Com grandes eleições a decorrer em todo o mundo este ano, particularmente na Índia, na Coreia do Sul e nos Estados Unidos, avaliamos que a China irá, no mínimo, criar e amplificar conteúdo gerado por IA para beneficiar os seus interesses”, afirmou a Microsoft no seu comunicado. declaração.
Ameaça de IA nas eleições
A ameaça representada por anúncios políticos que empregam tecnologia de IA para produzir conteúdos enganosos e falsos, incluindo “deepfakes” ou fabricar eventos que nunca aconteceram, é significativa num ano eleitoral crucial. Tais táticas visam enganar o público em relação às declarações dos candidatos, às posições sobre diversas questões e até mesmo à autenticidade de determinados eventos. Se não forem controladas, estas tentativas de manipulação têm o potencial de minar a capacidade dos eleitores de tomarem decisões bem informadas.
Embora o impacto imediato do conteúdo gerado pela IA permaneça relativamente baixo, a Microsoft alertou que a crescente experimentação desta tecnologia na China poderá tornar-se potencialmente mais eficaz ao longo do tempo. A gigante tecnológica observou que a tentativa anterior da China de influenciar as eleições de Taiwan envolveu a disseminação de desinformação gerada pela IA, marcando a primeira instância de uma entidade apoiada pelo Estado que utilizou tais tácticas numa eleição estrangeira.
Durante as eleições em Taiwan, um grupo apoiado por Pequim conhecido como Storm 1376, ou Spamouflage, esteve notavelmente ativo, disse a Microsoft. Este grupo circulou conteúdo gerado por IA, incluindo falsos endossos de áudio e memes, com o objetivo de desacreditar certos candidatos e influenciar as percepções dos eleitores. O uso de âncoras de notícias de TV geradas por IA é uma tática também empregada pelo Irã.
“A Tempestade-1376 promoveu uma série de memes gerados por IA do então candidato presidencial do Partido Democrático Progressista (DPP) de Taiwan, William Lai, e de outras autoridades taiwanesas, bem como de dissidentes chineses em todo o mundo. Estes incluíram um uso crescente de IA- gerou âncoras de notícias de TV que o Storm-1376 implantou desde pelo menos fevereiro de 2023”, disse a Microsoft.
Influência da IA nos assuntos dos EUA
A Microsoft destacou que os grupos chineses continuam a realizar campanhas de influência nos Estados Unidos, aproveitando as plataformas de redes sociais para colocar questões divisivas e recolher informações sobre os principais dados demográficos eleitorais.
“Tem havido um uso crescente de conteúdo chinês gerado por IA nos últimos meses, tentando influenciar e semear divisão nos EUA e em outros lugares sobre uma série de tópicos, incluindo o descarrilamento do trem em Kentucky em novembro de 2023, os incêndios florestais em Maui em agosto de 2023, a eliminação de águas residuais nucleares japonesas, o uso de drogas nos EUA, bem como as políticas de imigração e as tensões raciais no país. Há poucas evidências de que esses esforços tenham tido sucesso em influenciar a opinião pública”, afirmou a Microsoft.
O uso da IA nas campanhas eleitorais dos EUA não é novo. Na preparação para as primárias democratas de 2024 em New Hampshire, um telefonema gerado por IA imitou a voz do presidente Joe Biden, aconselhando os eleitores a não participarem nas eleições.
O apelo insinuava falsamente que os eleitores deveriam, em vez disso, reter os seus votos para as eleições gerais de Novembro. Ao ouvir esta mensagem, o eleitor médio poderia facilmente ter sido induzido em erro, acreditando que o próprio Presidente Biden tinha endossado esta directiva, levando potencialmente à sua privação de direitos.
Embora não haja provas do envolvimento chinês no episódio de New Hampshire, o incidente marca um dos muitos casos em que a IA representou uma ameaça direta às práticas democráticas.
Caminho a seguir para a Índia
As eleições gerais na Índia estão programadas para começar em 19 de abril, com os resultados previstos para serem declarados em 4 de junho. O processo eleitoral se desenvolverá em sete fases, com a primeira fase começando em 19 de abril, seguida pela segunda fase em 26 de abril, a terceira fase em 7 de maio, a quarta fase em 13 de maio, a quinta fase em 20 de maio, a sexta fase em 25 de maio e culminando com a sétima fase em 1º de junho.
O atual mandato da 17ª Assembleia de Lok Sabha está previsto para terminar em 16 de junho.
A Comissão Eleitoral da Índia (ECI) já forneceu directrizes e protocolos para identificar e responder prontamente a informações falsas e desinformação.
No mês passado, representantes da OpenAI, desenvolvedora do ChatGPT, reuniram-se com membros do ICI e fizeram uma apresentação aos membros da comissão descrevendo as medidas que estão sendo tomadas para prevenir o uso indevido de IA nas próximas eleições.
Esperando por resposta para carregar…