
Roblox e Discord sob fogo por falhas na segurança das crianças
Dois dos maiores parques de diversões da Internet, Roblox e Discord, estão oficialmente na berlinda por causa da segurança das crianças - e parece que as coisas podem ficar complicadas.
As autoridades estaduais da Flórida e de Nova Jersey estão a lançar investigações sérias sobre a forma como estas plataformas protegem (ou não protegem) os seus jovens utilizadores. O Roblox, que conta com uns insanos 85 milhões de jogadores diários, e o Discord, com 200 milhões de utilizadores mensais, estão agora a enfrentar pressões legais para explicar como estão realmente a manter as crianças seguras, e não apenas a prometer que estão.
"O procurador-geral da Flórida, James Uthmeier, intimou a Roblox Corp. para obter informações sobre como comercializa para crianças e suas políticas anti-predadores.
O foco é saber se a Roblox está a fazer o suficiente para evitar interações entre crianças e potenciais predadores. De acordo com o gabinete de Uthmeier, pretendem obter recibos: políticas de moderação, como funciona (ou não funciona) a verificação da idade e como é fácil para as crianças evitarem o controlo parental.
A Roblox respondeu, dizendo:
"Pretendemos cooperar com o gabinete do Procurador-Geral e estamos ansiosos por partilhar todo o trabalho que a Roblox faz para ajudar a manter os utilizadores seguros."
Uma boa declaração de relações públicas, mas o tribunal da opinião pública já está a zumbir - e não no bom sentido.

Imagem: Discord
Problemas com o Discord
Se o Roblox está a aquecer, o Discord pode estar ainda mais perto do fogo.
O procurador-geral de Nova Jersey, Matthew Platkin, acabou de processar o Discord, acusando a empresa de enganar as famílias sobre o quão seguro seu aplicativo realmente é. O processo alega que o Discord prometeu recursos de proteção, como filtros de mensagens, mas não cumpriu. As crianças continuaram a ser expostas a coisas horríveis - estamos a falar de material de abuso sexual de crianças, conteúdo violento e até meios de comunicação relacionados com o terrorismo.
"O Discord enganou os utilizadores e os pais ao exagerar as suas funcionalidades de segurança e ao não analisar as mensagens, mesmo entre amigos", diz o processo.
Que coisa.
Ainda mais condenatório, o processo diz que o Discord não aplica adequadamente sua própria regra de idade mínima (supostamente 13+), tornando muito fácil para as crianças mais jovens escaparem pelas fendas.
A resposta oficial do Discord? Bastante defensiva:
"Dado o nosso compromisso com o gabinete do Procurador-Geral, estamos surpreendidos com o anúncio de que New Jersey apresentou hoje uma ação contra o Discord."
Tradução: "Espera, estão a processar-nos? Pensámos que éramos bons?"

Por que está a explodir agora?
Ambas as plataformas têm tentado consertar as coisas, pelo menos no papel.
O Roblox afirma ter lançado 40 actualizações de segurança só em 2024, incluindo uma importante em novembro que impede que crianças com menos de 13 anos entrem em espaços sociais como clubes virtuais. A Discord, por sua vez, teve seu CEO Jason Citron testemunhando perante o Congresso no ano passado sobre segurança infantil - bem quando a empresa se prepara para um possível IPO.
Mas para muitas pessoas (e muitos pais), parece que é muito pouco e muito tarde.

A Businessweek da Bloomberg informou no verão passado que a Roblox tinha sérios problemas em manter os predadores fora da sua plataforma. Desde 2018, a polícia dos EUA prendeu mais de duas dúzias de indivíduos acusados de aliciamento ou abuso de vítimas que conheceram através do Roblox. E os especialistas dizem que o problema é enorme, em parte devido à grande escala dessas plataformas.
"Os funcionários da Roblox descreveram a amplitude do desafio de policiar a enorme base de utilizadores da empresa".
Basicamente, mesmo com toda a IA, mods e sistemas de denúncia implementados, os maus actores continuam a passar despercebidos.

"Roblox, Discord amanhã"
Tanto a Roblox como a Discord estão a enfrentar sérios problemas legais, e a confiança do público está definitivamente em jogo.
Se a Roblox não conseguir demonstrar que os seus sistemas são herméticos, arrisca-se a ter mais regulamentação (e pais zangados a retirarem os seus filhos do jogo). Para a Discord, a ação judicial pode não só atrasar a sua IPO, mas também arruinar a sua reputação, numa altura em que está a tentar expandir-se para além dos círculos de jogos, tornando-se uma plataforma social mais ampla.
Há também a questão mais importante da responsabilidade. Até que ponto devem as plataformas ser responsáveis quando actuam mais como parques de diversões do que como redes sociais tradicionais? E até que ponto é realista policiar totalmente espaços com centenas de milhões de utilizadores?
Estes casos podem criar precedentes importantes para a forma como as aplicações gerem a segurança das crianças no futuro, não apenas para o Roblox e o Discord, mas para toda a Internet.
Não se trata apenas de duas empresas a meterem-se em sarilhos. Trata-se de saber quem é responsável quando os parques infantis virtuais se tornam perigosos.
Comentários