449 visualizações 5 min 0 Comentário

Facebook utilizará mecanismos para detectar violações de regras antes mesmo de usuários visualizarem

- 22 de novembro de 2018

NOVA YORK (AP) – O Facebook disse que está fazendo progressos na detecção de incitação ao ódio, violência explícita e outras violações de suas regras, mesmo antes de os usuários verem e denunciá-las.

O Facebook disse que, durante o período de abril a setembro, dobrou a quantidade de discurso de ódio detectada proativamente, em comparação com os seis meses anteriores.

As descobertas foram divulgadas quinta-feira no segundo relatório semestral do Facebook sobre o cumprimento dos padrões da comunidade. Os relatórios chegam no momento em que o Facebook lida com desafio após desafio, desde notícias falsas até o papel do Facebook na interferência de eleições, discursos de ódio e incitação à violência nos EUA, em Mianmar, na Índia e em outros lugares.

A empresa também informou que desativou mais de 1,5 bilhão de contas falsas no último semestre, ante 1,3 bilhão nos seis meses anteriores. O Facebook disse que a maioria dos relatos falsos encontrados eram motivados financeiramente, em vez de visarem a desinformação. A empresa tem quase 2,3 bilhões de usuários.

O relatório do Facebook vem um dia depois de o New York Times ter publicado um extenso relatório sobre como o Facebook lida com crise após crise nos últimos dois anos. O Times descreveu a estratégia do Facebook como “atrasar, negar e desviar”.

O Facebook informou nesta quinta-feira que cortou os laços com uma empresa de relações públicas de Washington, a Defenders, que o Times disse que o Facebook contratou para desacreditar os oponentes. O CEO do Facebook, Mark Zuckerberg, disse durante uma ligação com os repórteres que ele ficou sabendo sobre o relacionamento da empresa com os Definers apenas quando leu o relatório do Times.

Nas diretrizes da comunidade, o Facebook também divulgou métricas sobre questões como nudez infantil e exploração sexual, propaganda terrorista, bullying e spam. Embora esteja divulgando quantas violações está ocorrendo, a empresa disse que nem sempre pode medir com segurança o quanto essas coisas são predominantes no Facebook em geral. Por exemplo, enquanto o Facebook tomou medidas em 2 milhões de casos de bullying no período de julho a setembro, isso não significa que houve apenas 2 milhões de casos de bullying durante esse período.

Clifford Lampe, professor de informação na Universidade de Michigan, disse que é difícil para as pessoas concordarem sobre o que constitui bullying ou discurso de ódio – então isso torna difícil, se não impossível, ensinar sistemas de inteligência artificial como detectá-los.

No geral, Lampe disse que o Facebook está fazendo progressos para erradicar o ódio, falsificar contas e outros conteúdos questionáveis, mas acrescentou que poderia estar fazendo mais.

“Parte disso é temperada por (o fato de que eles são uma empresa de capital aberto”, disse ele. “Sua principal missão não é ser boa para a sociedade. É ganhar dinheiro. Há preocupações de negócios.”

O Facebook também planeja criar um órgão independente até o ano que vem para que as pessoas recorram a decisões de remover – ou deixar postagens que possam violar suas regras. Apelos são atualmente tratados internamente.

O Facebook emprega milhares de pessoas para revisar postagens, fotos, comentários e vídeos por violações. Algumas coisas também são detectadas sem seres humanos, usando inteligência artificial. Zuckerberg disse que a criação de um órgão de apelação independente evitará a concentração de “tomada de decisão excessiva” no Facebook.

O Facebook tem enfrentado acusações de preconceito contra os conservadores – algo que nega – bem como críticas de que não vai longe o suficiente na remoção de conteúdo odioso.

Fonte: Mainichi Shimbun