Os gigantes da mídia social poderiam usar o reconhecimento facial para impedir que crianças acessem conteúdo violento, sugere uma nova orientação do Ofcom.

O regulador disse que as empresas de tecnologia devem adotar “algoritmos agressivos” que podem deixar as crianças expostas ao suicídio, automutilação, distúrbios alimentares, violência ou pornografia.

De acordo com o novo código, as empresas devem avaliar os riscos que o conteúdo da sua plataforma representa para as crianças e implementar medidas de segurança para mitigar esses riscos.

O último rascunho das Regras de Segurança Online descreve 40 medidas práticas a serem implementadas por empresas de tecnologia com usuários infantis – com multas pesadas para aqueles que violarem as regras.

Isto inclui orientações sobre como instituir medidas mais robustas de verificação de idade para garantir que as crianças não possam aceder a conteúdos nocivos na plataforma.

Gigantes da mídia social poderiam usar reconhecimento facial para evitar que crianças acessem conteúdo violento, sugere nova orientação do Ofcom (imagem de banco de dados)

Métodos suficientes fornecidos nas orientações incluem tecnologias de identificação facial, como a correspondência de fotografias com identidade, ou aplicativos que estimam a idade de um usuário a partir de uma fotografia.

O regulador alerta que os métodos existentes – como fazer com que os utilizadores se autodeclarem ter mais de 18 anos – já não serão suficientes.

As plataformas também foram informadas de que precisam redesenhar seus algoritmos para filtrar o conteúdo mais prejudicial para usuários infantis.

A maioria das plataformas de mídia social depende de algoritmos para recomendar aos usuários conteúdo que eles acreditam que irá interessá-los ou mantê-los navegando.

No entanto, como diz a proposta do Ofcom: “As evidências mostram que os sistemas de recomendação são um caminho fundamental para as crianças encontrarem conteúdos nocivos.

‘Eles também desempenham um papel na restrição do tipo de conteúdo apresentado a um usuário, o que pode levar a recomendações de conteúdo cada vez mais prejudiciais, bem como expor os usuários a danos cumulativos.’

As crianças citadas no novo código de segurança, publicado hoje, citaram preocupações sobre serem contactadas por estranhos ou adicionadas a chats online sem o seu consentimento.

Outros mencionaram querer mais restrições quanto ao tipo de imagens ou informações que lhes são recomendadas. Um jovem de 15 anos disse: ‘Se você assistir [violent content]você consegue mais’.

Ofcom disse que as empresas de tecnologia devem adotar 'algoritmos agressivos' que podem deixar as crianças expostas ao suicídio, automutilação, distúrbios alimentares, violência ou pornografia (imagem de stock)

Ofcom disse que as empresas de tecnologia devem adotar ‘algoritmos agressivos’ que podem deixar as crianças expostas ao suicídio, automutilação, distúrbios alimentares, violência ou pornografia (imagem de stock)

Acontece poucos meses depois de o conteúdo online violento ter sido considerado “inevitável” para as crianças no Reino Unido.

Todas as crianças britânicas entrevistadas para um estudo do Ofcom divulgado em março assistiram a material violento na Internet, e algumas assistiram-no enquanto estavam na escola primária.

A presidente-executiva da Ofcom, Dame Melanie Dawes, disse: ‘Nossas medidas proporcionarão uma mudança radical na segurança online para crianças no Reino Unido. Não hesitaremos em usar toda a nossa gama de poderes de fiscalização para responsabilizar as plataformas.”

O ativista da segurança infantil online Ian Russell – pai de Molly Russell, de 14 anos, que suicidou-se em 2017 depois de ver material prejudicial nas redes sociais – disse que o código, embora bem-vindo, não é suficiente.

«O seu conjunto global de propostas precisa de ser mais ambicioso para evitar que as crianças encontrem conteúdos nocivos que custaram a vida de Molly», explicou.

Espera-se que os códigos de segurança finais sejam publicados pelo Ofcom no final de 2025, com a aprovação parlamentar prevista para a primavera de 2026.

Fuente