Um esforço polêmico dos legisladores da União Europeia para exigir legalmente que as plataformas de mensagens escaneiem as comunicações privadas dos cidadãos em busca de material de abuso sexual infantil (CSAM) poderia levar a milhões de falsos positivos por dia, alertaram centenas de especialistas em segurança e privacidade em um comunicado. carta aberta Quinta-feira.

A preocupação com a proposta da UE tem aumentado desde que a Comissão propôs o plano de verificação de CSAM há dois anos – com especialistas independentes, legisladores de todo o Parlamento Europeu e até mesmo o próprio Supervisor de Proteção de Dados do bloco entre aqueles que soaram o alarme.

A proposta da UE não exigiria apenas que as plataformas de mensagens que recebem uma ordem de detecção de CSAM procurassem conhecido CSAM; eles também teriam que usar tecnologias de varredura de detecção não especificadas para tentar detectar CSAM desconhecidos e identificar atividades de aliciamento enquanto elas ocorrem – levando a acusações de legisladores que se entregam a níveis de pensamento mágico de tecnossolucionismo.

Os críticos argumentam que a proposta exige o tecnologicamente impossível e não alcançará o objectivo declarado de proteger as crianças do abuso. Em vez disso, dizem eles, causará estragos na segurança da Internet e na privacidade dos utilizadores da Web, forçando as plataformas a implementarem vigilância geral de todos os seus utilizadores ao implementarem tecnologias arriscadas e não comprovadas, como a digitalização do lado do cliente.

Especialistas dizem que não existe tecnologia capaz de alcançar o que a lei exige sem causar muito mais danos do que benefícios. No entanto, a UE está a avançar independentemente.

A última carta aberta aborda alterações ao projeto de regulamento de digitalização CSAM recentemente proposto pelo Conselho Europeu, que os signatários argumentam que não conseguem resolver as falhas fundamentais do plano.

Os signatários da carta – totalizando 270 no momento da redação – incluem centenas de acadêmicos, incluindo conhecidos especialistas em segurança, como o professor Bruce Schneier, da Harvard Kennedy School, e o Dr. Matthew D. Green, da Universidade Johns Hopkins, juntamente com um punhado de pesquisadores que trabalham para empresas de tecnologia como IBM, Intel e Microsoft.

Um anterior carta aberta (julho passado), assinado por 465 acadêmicos, alertou que as tecnologias de detecção que a proposta de legislação depende de forçar as plataformas a adotar são “profundamente falhas e vulneráveis ​​a ataques”, e levariam a um enfraquecimento significativo das proteções vitais fornecidas por end-to- encerrar comunicações criptografadas (E2EE).

Pouca tração para contrapropostas

No outono passado, os eurodeputados do Parlamento Europeu uniram-se para reagir com uma abordagem substancialmente revista – que limitaria a digitalização a indivíduos e grupos que já são suspeitos de abuso sexual de crianças; limitá-lo a CSAM conhecidos e desconhecidos, eliminando a necessidade de verificação de aliciamento; e remover quaisquer riscos para o E2EE, limitando-o a plataformas que não são criptografadas de ponta a ponta. Mas o Conselho Europeu, o outro órgão co-legislativo envolvido na legislação da UE, ainda não tomou uma posição sobre o assunto, e o local onde chegar influenciará a forma final da lei.

A última alteração em cima da mesa foi apresentada pela Presidência belga do Conselho em Março, que lidera as discussões em nome dos representantes dos governos dos Estados-Membros da UE. Mas na carta aberta os especialistas alertam que esta proposta ainda não consegue resolver as falhas fundamentais incorporadas na abordagem da Comissão, argumentando que as revisões ainda criar “capacidades sem precedentes para vigilância e controle de usuários da Internet” e “minaria… uma garantir um futuro digital para a nossa sociedade e pode ter enormes consequências para os processos democráticos na Europa e fora dela.»

As alterações a debater na proposta alterada do Conselho incluem uma sugestão de que as ordens de deteção podem ser mais direcionadas através da aplicação de categorização de riscos e de medidas de mitigação de riscos; e a cibersegurança e a encriptação podem ser protegidas garantindo que as plataformas não são obrigadas a criar acesso a dados desencriptados e tendo as tecnologias de deteção verificadas. Mas os 270 especialistas sugerem que isto equivale a contornar um desastre de segurança e privacidade.

Do “ponto de vista técnico, para ser eficaz, esta nova proposta também prejudicará completamente a segurança das comunicações e dos sistemas”, alertam. Embora confiar em “tecnologia de detecção falha” para determinar casos de interesse a fim de enviar ordens de detecção mais direcionadas não reduza o risco de a lei inaugurar uma era distópica de “vigilância massiva” das mensagens dos usuários da web, em seus análise.

A carta também aborda uma proposta do Conselho para limitar o risco de falsos positivos, definindo uma “pessoa de interesse” como um usuário que já compartilhou CSAM ou tentou preparar uma criança – o que se prevê seria feito através de uma avaliação automatizada; como esperar por 1 acerto para CSAM conhecido ou 2 para CSAM/grooming desconhecidos antes que o usuário seja oficialmente detectado como suspeito e denunciado ao Centro da UE, que trataria das denúncias de CSAM.

Bilhões de usuários, milhões de falsos positivos

Os especialistas alertam que esta abordagem ainda poderá levar a um grande número de alarmes falsos.

“É altamente improvável que o número de falsos positivos devido a erros de detecção seja reduzido significativamente, a menos que o número de repetições seja tão grande que a detecção deixe de ser eficaz. Dada a grande quantidade de mensagens enviadas nestas plataformas (na ordem dos milhares de milhões), pode-se esperar uma quantidade muito grande de alarmes falsos (na ordem dos milhões)”, escrevem, apontando que as plataformas provavelmente acabarão esbofeteadas. com uma ordem de detecção pode ter milhões ou até bilhões de usuários, como o WhatsApp de propriedade da Meta.

“Dado que não houve nenhuma informação pública sobre o desempenho dos detectores que pudessem ser utilizados na prática, imaginemos que teríamos um detector para CSAM e aliciamento, conforme consta na proposta, com apenas 0,1% de taxa de falsos positivos (ou seja, uma em cada mil vezes, classifica incorretamente não-CSAM como CSAM), o que é muito inferior a qualquer detector atualmente conhecido.

“Dado que os utilizadores do WhatsApp enviam 140 mil milhões de mensagens por dia, mesmo que apenas 1 em cada cem mensagens fossem testadas por tais detectores, haveria 1,4 milhões de falsos positivos todos os dias. Para reduzir os falsos positivos às centenas, estatisticamente seria necessário identificar pelo menos 5 repetições usando imagens ou detectores diferentes e estatisticamente independentes. E isso é apenas para o WhatsApp – se considerarmos outras plataformas de mensagens, incluindo e-mail, o número de repetições necessárias cresceria significativamente a ponto de não reduzir efetivamente os recursos de compartilhamento de CSAM.”

Outra proposta do Conselho para limitar as ordens de detecção a aplicações de mensagens consideradas de “alto risco” é uma revisão inútil, na opinião dos signatários, uma vez que argumentam que provavelmente ainda “afectará indiscriminadamente um grande número de pessoas”. Aqui eles apontam que apenas recursos padrão, como compartilhamento de imagens e chat de texto, são necessários para a troca de CSAM – recursos que são amplamente suportados por muitos provedores de serviços, o que significa que uma categorização de alto risco “sem dúvida impactará muitos serviços”.

Salientam também que a adoção do E2EE está a aumentar, o que sugerem que aumentará a probabilidade de os serviços que o implementam serem classificados como de alto risco. “Este número pode aumentar ainda mais com os requisitos de interoperabilidade introduzidos pela Lei dos Mercados Digitais, que resultarão no fluxo de mensagens entre serviços de baixo e alto risco. Como resultado, quase todos os serviços poderiam ser classificados como de alto risco”, argumentam. (Nota: a interoperabilidade de mensagens é um elemento central do DMA da UE.)

Uma porta dos fundos para a porta dos fundos

Quanto à proteção da criptografia, a carta reitera a mensagem de que os especialistas em segurança e privacidade têm gritado repetidamente aos legisladores há anos: “A detecção em serviços criptografados de ponta a ponta, por definição, prejudica a proteção da criptografia”.

“A nova proposta tem como um dos objetivos ‘proteger a segurança cibernética e os dados criptografados, mantendo os serviços que utilizam criptografia ponta a ponta no âmbito das ordens de detecção’. Como explicamos anteriormente, isso é um oxímoro”, enfatizam. “A proteção dada pela criptografia de ponta a ponta implica que ninguém além do destinatário pretendido de uma comunicação deve ser capaz de obter qualquer informação sobre o conteúdo de tal comunicação. Habilitar recursos de detecção, seja para dados criptografados ou para dados antes de serem criptografados, viola a própria definição de confidencialidade fornecida pela criptografia de ponta a ponta.”

Nas últimas semanas, os chefes de polícia de toda a Europa escreveram a sua própria declaração conjunta – levantando preocupações sobre a expansão do E2EE e apelando às plataformas para conceberem os seus sistemas de segurança de forma a que ainda possam identificar atividades ilegais e enviar relatórios sobre o conteúdo das mensagens às autoridades policiais. .

A intervenção é amplamente vista como uma tentativa de pressionar os legisladores para que aprovem leis como o regulamento de digitalização de CSAM.

Os chefes de polícia negam que estejam pedindo que a criptografia seja backdoor, mas não explicaram exatamente quais soluções técnicas desejam que as plataformas adotem para permitir o procurado “acesso legal”. A quadratura desse círculo coloca uma bola de formato muito instável de volta ao tribunal dos legisladores.

Se a UE continuar no caminho actual – presumindo que o Conselho não consiga mudar de rumo, como os eurodeputados instaram – as consequências serão “catastróficas”, alertam os signatários da carta. “Isso abre um precedente para a filtragem da Internet e impede que as pessoas utilizem algumas das poucas ferramentas disponíveis para proteger o seu direito à vida privada no espaço digital; terá um efeito inibidor, em particular para os adolescentes que dependem fortemente de serviços online para as suas interações. Isso mudará a forma como os serviços digitais são usados ​​em todo o mundo e provavelmente afetará negativamente as democracias em todo o mundo.”

Uma fonte da UE próxima do Conselho não foi capaz de fornecer informações sobre as discussões atuais entre os Estados-Membros, mas observou que haverá uma reunião do grupo de trabalho em 8 de maio, onde confirmaram que a proposta de regulamento para combater o abuso sexual infantil será discutida.

Fuente