A empresa tentará reconhecer padrões nas publicações e nos vídeos ao vivo dos usuários que sugerem que uma pessoa está considerando o suicídio
Washington – O Facebook iniciará uma nova ferramenta de inteligência artificial para ajudar usuários que possam estar pensando em suicídio enquanto usam a plataforma, com o objeto de evitar que deem esse passo, informou nesta segunda-feira a rede social.
A companhia tentará reconhecer padrões nas publicações e nos vídeos ao vivo dos usuários que sugerem que uma pessoa está considerando a opção de acabar com sua própria vida, como afirmou a empresa em comunicado.
Segundo o vice-presidente de Gestão Produtiva do Facebook, Guy Rosen, também serão aprimorados os mecanismos de identificação de quem seriam os primeiros a responder a casos assim, e acrescentarão mais investigadores em sua equipe para informar suicídios e autolesões.
As técnicas, que já estão sendo testadas em usuários, incluem um novo algoritmo para detectar situações que, até agora, passavam despercebidas.
O Facebook, que está há mais de dez anos trabalhando na prevenção do suicídio, indicou que pretende que a ferramenta esteja disponível não só em território americano, mas também na maioria de países do mundo, exceto na União Europeia (UE).
“Podemos conectar uma pessoa angustiada com alguém que possa apoiá-la”, afirmou Rosen, que disse que nos trabalhos de prevenção é analisada a aparição de comentários como “está bem?” e uma grande quantidade de respostas dos usuários nas transmissões de vídeo.
Com o mesmo propósito, a companhia já contratou em março 3 mil pessoas para revisar o conteúdo que pode estar relacionado com o crime ou o suicídio, que se somaram aos 4.500 que trabalhavam no Facebook para evitar práticas que violam seus padrões.
A empresa tenta evitar casos como o ocorrido em abril deste ano, quando um tailandês transmitiu ao vivo através da rede social como matava sua filha de 11 meses e posteriormente se suicidava, um vídeo que depois foi apagado pela plataforma.