Design sem nome (5)

Roblox vai exigir verificação de idade com reconhecimento facial para uso do chat

O Roblox anunciou que passará a exigir verificação de idade de todos os usuários que quiserem utilizar o chat da plataforma. A medida, apresentada nesta terça-feira (18), amplia as camadas de segurança do ambiente virtual e surge em meio a uma série de ações judiciais e acusações de que adultos têm usado o jogo para se aproximar e abusar de crianças.

A plataforma, que soma mais de 150 milhões de usuários no mundo — um terço deles menores de 13 anos — permitirá duas formas de verificação: o envio de um documento oficial ou a estimativa automatizada feita por inteligência artificial a partir de uma foto do rosto. O sistema utiliza tecnologia da empresa Persona e exige que o usuário movimente o rosto em diferentes direções para confirmar que se trata de uma pessoa real.

Segundo o Roblox, o recurso vai classificar cada jogador em faixas etárias estimadas: menos de 9, 9 a 12, 13 a 15, 16 a 17, 18 a 20 ou acima de 21 anos. A partir disso, o chat será liberado apenas para interações com usuários da mesma categoria ou de níveis muito próximos. Um jogador estimado em 12 anos, por exemplo, poderá conversar com usuários de até 15, mas não com maiores de 16.

Usuários acima de 13 anos poderão corrigir erros de classificação enviando um documento de identificação. Pais que utilizam controles parentais também poderão ajustar a idade de seus filhos. O Roblox afirma que as imagens enviadas serão usadas exclusivamente para estimativa e apagadas após a categorização.

A decisão acontece em momento sensível para a plataforma. Procuradores-gerais de Kentucky e Louisiana moveram processos neste ano acusando o Roblox de falhas graves de segurança que teriam facilitado aliciamento de menores. O procurador-geral da Flórida, por sua vez, intimou criminalmente a empresa, chamando o ambiente virtual de “terreno fértil para predadores”. Além das ações coletivas, famílias também têm processado a plataforma individualmente, como no caso de Ethan, de 15 anos, cujo suicídio estaria relacionado a abusos sofridos após contatos iniciados no jogo.

A plataforma já contava com mecanismos de proteção, como controles parentais, proibição de envio de fotos, bloqueio de informações pessoais e moderação humana e por IA. Também exige verificação de idade para acessar conteúdos classificados como “17+”. A nova política, no entanto, ampliará de forma significativa o número de usuários submetidos à verificação.

O anúncio coincidiu com um protesto virtual dentro do próprio Roblox, organizado pelo grupo ParentsTogether Action, que pede medidas mais rígidas de proteção a jovens. A demanda acompanha um movimento mais amplo entre plataformas digitais, como YouTube e Meta, que também passaram a usar inteligência artificial para identificar a faixa etária dos usuários.

Matt Kaufman, diretor de Segurança do Roblox, afirmou que a proteção de crianças continua sendo prioridade. “Queremos fazer do Roblox uma experiência segura, positiva e apropriada para todas as idades”, disse. Ele reforçou que o sistema é “tipicamente preciso com margem de um a dois anos” para usuários entre 5 e 25 anos.

A verificação começa de forma voluntária a partir desta terça-feira. Em dezembro, torna-se obrigatória na Austrália, Nova Zelândia e Holanda, e passa a valer globalmente no início de 2025.

Compartilhe esse texto nas suas redes sociais: