Apesar de ser uma rede social aberta, o Facebook tem regras internas que decidem o que os dois bilhões de usuários podem ou não publicar. Reveladas pelo jornal inglês 'The Guardian', as diretrizes encaminhadas para moderadores de conteúdo da plataforma indicam, entre dezenas de documentos e manuais, que posts com textos ameaçando um presidente de Estado de morte, por exemplo, precisam ser deletados, enquanto mensagens como "eu espero que alguém te mate" ou imagens de abuso infantil e de animais podem ser liberadas.
Segundo a gerente de políticas globais da rede social, entre as dificuldades em remover alguns posts está a separação de conteúdos humorísticos daqueles verdadeiramente inapropriados, mantendo a liberdade de expressão.
App do TechTudo: receba dicas e notícias de tecnologia no seu celular
Dez segundos
As informações vazadas, até então desconhecidas, tratam de ações que devem ser tomadas a partir de conteúdos que contenham violência, discurso de ódio, pornografia, racismo e automutilação seguida de suicídio. As publicações são analisadas, atualmente, por 4.500 moderadores, que devem decidir se um post está dentro das regras do Facebook em cerca de dez segundos, já que há milhares de textos e imagens para serem verificadas todos os dias esperando avalia�
Ameaças
No caso de uma ameaça é preciso analisar se o alvo do ataque é uma autoridade, um órgão oficial, ou estrangeiro, além de conferir se a linguagem expressa somente uma frustração e antipatia ou algo mais concreto. Assim, posts que contenham, por exemplo, frases como "alguém atire no Trump" ou "eu odeio estrangeiros e quero atirar em todos" são proibidos e devem ser removidos da rede de Mark Zuckerberg, enquanto conteúdos que citem algo em torno de "vamos bater em crianças gordas" ou apenas "morra" estão liberadas.
Vale lembrar que o próprio criador e CEO da plataforma tem um time de 12 pessoas para analisar interações sobre ele mesmo na rede social.
Segundo os documentos revelados pelo The Guardian, o Facebook afirma aos funcionários que é comum expressar discordâncias online, já que os usuários se sentem mais a vontade por não estarem cara a cara com as vítimas. Em um trecho das regras, a rede social aponta: "Nós queremos permitir o máximo de discurso possível, mas desenhando a linha de conteúdo que pode realmente causar danos no mundo real. As pessoas comumente expressam indiferença ou desacordo ameaçando ou incitando a violência em geral de formas cômicas e não sérias".
Para ameças terroristas, a moderação deve conferir também as publicações que contenham avisos ou indícios possíveis de acontecer, como "vou explodir um prédio hoje" ou "vou te matar na próxima vez que eu te ver". Essas são proibidas e devem ser deletadas imediatamente, enquanto ações com sátiras e indicações de tempo pouco prováveis, como "quando os porcos voarem" podem ser mantidas.
Abuso infantil, de animais e mortes violentas
Outros tipos de conteúdos que os funcionários do Facebook são direcionados a moderar são as publicações que contenham fotos ou vídeos com crianças sendo abusadas, animais torturados ou mortes violentas. Nos três casos a rede social indica manter — mesmo com denúncias — alguns posts para conscientização das pessoas sobre o fato, inserindo apenas uma etiqueta de "conteúdo perturbador" e sem autoplay para alertar quem passe pelo conteúdo no feed.
No caso de imagens de abuso infantil, o conteúdo é removido se for identificado indícios de perversão ou celebração. Entretanto, de acordo com os documentos, alguns vídeos mantidos com a tag "perturbador" ficam disponíveis para ajudar/resgatar a criança envolvida. De forma semelhante, fotos e vídeos de animais torturados e mortes violentas podem continuar no feed de notícias com o objetivo, segundo o manual obtido pelo jornal inglês, de aumentar a consciência sobre aflições, doenças mentais e crimes de guerra, ou condenar abusos.
De acordo com a gerente de políticas globais do Facebook, Monika Bickert, em entrevista ao The Guardian, o grande número de usuários da rede social com diferentes opiniões dificulta o trabalho de moderação da plataforma.
"Nós temos uma comunidade global realmente diversa e as pessoas terão diferentes ideias sobre o que é OK compartilhar. Não importa onde você desenhe a linha [do que pode ou não] sempre haverão áreas cinzentas. Por exemplo, a linha entre sátira e humor e conteúdo inapropriado é às vezes muito cinza", diz.
Nudes e revenge porn
Fotos íntimas ou que indiquem "revenge porn" (pornografia de vingança, em português) também estão entre os conteúdos indicados como proibidos no Facebook. A categoria recebeu, em abril de 2017, ferramentas para barrar publicações e, nos documentos, indica que caso seja identificada uma imagem de alguém nu, quase nu ou em ato sexual a foto ou o vídeo deve ser retirados da plataforma. Além disso, legendas, comentários e títulos que contenham textos vingativos também serão motivo para exclusão de toda a publicação.
No entanto, para impedir que fotos como a de uma menina nua na guerra do Vietña após ser atingida por napalm sejam retiradas, como já aconteceu anteriormente, o Facebook criou exceções para imagens do "terror da guerra".
Em defesa das críticas recebidas, de acordo com a rede social, o objetivo é que "as pessoas possam discutir eventos globais e atuais, então o contexto no qual uma imagem violenta é compartilhada às vezes importa".
Suicídios mantidos ao vivo
Assim como o revenge porn, a plataforma de Mark Zuckerberg também vem nos últimos meses implantando ferramentas contra o compartilhamento de suicídio e mortes violentas, principalmente em vídeos ao vivo. Nesse caso, os documentos vazados apontam para a preferência da rede social em manter os conteúdos exibidos enquanto houver oportunidade de ajudar o usuário. O objetivo é "não censurar ou punir pessoas em perigo que estão tentando suicídio".
Mais moderadores e ferramentas
Com o crescimento da rede social e com tantas regras e diretrizes, o Facebook anunciou no começo de maio a contratação até 2018 de mais três mil funcionários para a área de moderação de conteúdo. Hoje com 4.500 pessoas, a ideia, segundo comunicado feito por Mark Zuckerberg, é revisar vídeos com discurso de ódio e exploração infantil. Além do aumento da equipe, o CEO revelou que a plataforma deve ganhar mais ferramentas para simplificar a comunicação entre usuários e a empresa por meio de denúncias e relatórios simplificados.
Alguns conteúdos proibidos no Facebook:
- Textos incitando a violência a chefes de estado, autoridades ou estrangeiros.
Exemplos retirados dos documentos:
- "Alguém atire no Trump";
- "Eu odeio estrangeiros";
- Textos com ameaças possíveis de acontecer ou que determinem hora e local.
- "Eu vou matar o chefe de estado de Taiwan em 48 horas";
- "Vamos destruir o carro do Paul, eu tenho o taco de baseball que podemos usar";
- Imagens com alguém nu, quase nu ou em ato sexual;
- Imagens com legenda, comentário ou título que indique texto vingativo baseado em revenge porn;
- Fotos ou vídeos com abuso infantil que demonstrem perversão ou celebração com o conteúdo.
Observação:
Imagens com menores de idade sendo chutados ou espancados e animais sendo mutilados são etiquetadas como "conteúdo perturbador", mas não removidas da rede social.
Via The Guardian
Como descobrir quem visitou o meu Facebook? Dê sua sua opinião no Fórum do TechTudo.
>>> Veja o artigo completo no TechTudo
Mais Artigos...
- Como fazer backup das suas gravações no SoundCloud
- Código de erro 39 no Valorant: entenda o que causa e como resolver
- Como desbloquear as execuções brutais no game For Honor
- Anthem: como baixar o game no Xbox One, PS4 e PC
- Free Fire Battlegrounds aceita hack? Entenda regras e punições da Garena
- Como usar a nova função do Firefox 42 que bloqueia rastreamento online
- StarCraft, Tomb Raider e Fallout 4 estão nos lançamentos da semana
- Photoshop no celular: como usar camadas no Sketch para Android e iPhone
- Avatares do Xbox One e Xbox 360 poderão usar cadeiras de rodas
- WhatsApp para Android permite ouvir áudio antes de enviar; saiba como fazer