Início Notícias Instagram alertará os pais se seus filhos estiverem procurando palavras suicidas ou...

Instagram alertará os pais se seus filhos estiverem procurando palavras suicidas ou autoagressivas

9
0

O Instagram, uma plataforma de mídia social popular entre os jovens, disse na quinta-feira que alertará os pais se seus filhos tentarem repetidamente o suicídio ou a automutilação.

“Nosso objetivo é capacitar os pais para intervir se as descobertas de seus filhos sugerirem que eles possam precisar de apoio”, disse a empresa em um blog.

Os pais receberão notificações via SMS, e-mail ou WhatsApp. Eles também terão a opção de visualizar recursos para ajudá-los a ter conversas delicadas com seus filhos.

Prevenção de suicídio e recursos de crise

Se você ou alguém que você conhece está enfrentando pensamentos suicidas, procure ajuda profissional e ligue para 9-8-8. O número 988 para crises de saúde mental nos Estados Unidos conectará os chamadores a conselheiros de saúde mental treinados. Envie “HOME” para 741741 nos EUA e Canadá para acessar a Crisis Text Line.

A medida é o exemplo mais recente de como as empresas de tecnologia estão a responder às preocupações dos pais, políticos e grupos de direitos humanos sobre a protecção dos jovens contra conteúdos nocivos.

É um teste importante para saber se empresas de tecnologia como Instagram e YouTube podem ser responsabilizadas por supostamente promoverem produtos nocivos e escravizarem usuários em suas plataformas.

O julgamento incluiu o depoimento do CEO do Instagram, Adam Mosseri, que disse ao tribunal que a empresa está tentando ser “o mais segura possível, mas também o mais censuradora possível”.

As preocupações com a segurança aumentaram à medida que adolescentes, alguns deles suicidas, recorrem a chatbots de IA para partilhar os seus pensamentos mais sombrios.

O Instagram tem um assistente de IA dentro da barra de pesquisa. A Meta, dona do Instagram, cria alertas semelhantes se os adolescentes tentarem conversar sobre suicídio e automutilação com seu assistente de IA.

Meta tem regras contra a postagem de conteúdo que incentiva o suicídio ou a automutilação, mas permite que as pessoas discutam o assunto. A empresa controladora também tomou medidas contra milhões de conteúdos sobre suicídio, automutilação e transtornos alimentares, relata Meta Transparency.

No entanto, pais e alguns adolescentes disseram no processo que adolescentes viram conteúdo autolesivo no Instagram.

Cerca de 63% dos adolescentes americanos, com idades entre 13 e 17 anos, usam o Instagram, de acordo com uma pesquisa do Pew Research Center publicada em dezembro. Mais da metade dos adolescentes americanos também usam chatbots para encontrar informações, de acordo com uma pesquisa divulgada esta semana.

O Instagram, que tem mais de 3 bilhões de usuários ativos mensais, disse que a maioria dos adolescentes não procura conteúdo suicida ou autodestrutivo no Instagram. Impede pesquisas e direciona as pessoas para recursos para prevenir o suicídio. O Instagram diz que as notificações fazem parte de suas contas para adolescentes, que incluem limites para quem os adolescentes podem enviar mensagens, lembretes de prazos e outros recursos.

Os pais que usam esses dispositivos para monitorar seus filhos começarão a receber notificações nos EUA, Reino Unido, Austrália e Canadá nas próximas semanas. Então eles se espalharão para outras áreas este ano.

As plataformas de mídia social tomaram outras medidas para melhorar a segurança. Este mês, Meta, TikTok e Snap concordaram em pontuar os esforços de segurança dos adolescentes como parte de um novo programa da Coalizão de Saúde Mental.

Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui