Instagram impedirá jovens de ver conteúdo sobre suicídio e transtorno alimentar






A Meta -dona de Facebook e Instagram- aumentou as restrições em contas de adolescentes nas suas redes sociais com o objetivo de reforçar a proteção contra publicações consideradas danosas à saúde mental. A empresa ocultará resultados de busca relacionados a suicídio, automutilação ou transtornos alimentares e redirecionará os jovens a serviços especializados de ajuda.

As mudanças anunciadas, segundo a Meta, começam a valer nos “próximos meses”. Não há data definida. As contas de menores de idade registradas a partir desta terça (9), entretanto, já terão configurações mais rígidas.

Até então, não havia diferenças significativas entre as contas de menores de idade e as de adultos. Em respeito à lei dos Estados Unidas, plataformas sociais devem permitir cadastro apenas de pessoas com 13 anos ou mais, embora não exista uma política efetiva de autenticação da idade do usuário.

A atualização na política da empresa vem na esteira de um processo judicial em que mais de 40 estados americanos processam a Meta, com acusações de que Facebook e Instagram “prejudicam a saúde mental dos jovens”. A ação foi ajuizada em 24 de outubro de 2023.

Questionada sobre o litígio, a Meta expressou decepção “de que os procuradores-gerais tenham escolhido esse caminho, em vez de trabalhar produtivamente com as empresas do setor para criar normas claras e adaptadas à idade dos inúmeros aplicativos usados por adolescentes”.

No comunicado divulgado nesta terça, a Meta diz que “consulta constantemente especialistas em desenvolvimento de adolescentes, psicologia e saúde mental para ajudar a tornar as suas plataformas seguras e apropriadas para a idade dos adolescentes”.

De acordo com a big tech, Facebook e Instagram continuam a permitir que as pessoas compartilhem conteúdos que discutam suas próprias lutas contra o suicídio, automutilação e transtornos alimentares. Quando são esses os tópicos, o indicado é procurar auxílio profissional em organizações como o Centro de Valorização da Vida (CVV).

A nova política da empresa, porém, consiste em não recomendar esse conteúdo e ainda dificultar o acesso a essas publicações.

No Instagram, as restrições ativas ficam na seção “Controle de conteúdo sensível” e, no Facebook, em “Reduzir”. Esses mecanismos dificultam o encontro de materiais e perfis relacionados a “temas sensíveis”.

A empresa enviará notificações às contas nas quais os donos disseram ser menores de idade para informar sobre a adoção da nova política. Esses adolescentes terão a opção de ativar as configurações recomendadas.

Ainda em 2021, a Folha de S.Paulo mostrou que os brasileiros percebiam haver problemas mais graves de bullying e exploração de crianças no Facebook do que em outras plataformas, quando a ex-funcionária da Meta, Frances Haugen, entregou uma série de relatórios internos da empresa à Comissão de Valores Mobiliários (SEC, na sigla em inglês).

Em pesquisa interna da Meta divulgada na ocasião, uma das principais críticas feitas ao Facebook era que a empresa negligenciava a moderação de conteúdo em países vistos como menos importantes que os EUA, o Reino Unido e nações da União Europeia.

CVV
Voluntários atendem ligações gratuitas 24 h por dia no número 188, por chat, via email ou diretamente em um posto de atendimento físico.
(Folhapress)

Postar um comentário

Os comentários são de inteira responsabilidade do autor, e não expressam necessariamente a opinião dos editores do blogger

Postagem Anterior Próxima Postagem