Facebook abre o jogo e revela tudo o que você não pode publicar na rede social
Nesta terça-feira (24), o Facebook resolveu publicar com mais detalhes suas diretrizes internas sobre o que pode e o que não pode ser publicado na plataforma, além de ampliar a possibilidade de o usuário apelar quando tem algum conteúdo removido.
Sim, os Padrões da Comunidade já explicavam essa questão, mas, nas palavras de Monika Bickert, vice-presidente global de políticas públicas da rede social, "hoje, estamos dando um passo à frente ao publicar as diretrizes internas que usamos para cumprir esses padrões; e, pela primeira vez, estamos dando a você o direito de apelar às nossas decisões sobre postagens individuais para que você possa pedir uma segunda opinião quando achar que cometemos um erro".
Como são aplicadas as políticas do Facebook
A rede social tem 11 escritórios ao redor do mundo, com especialistas na análise de conteúdos, incluindo coisas como discursos de ódio, segurança infantil e terrorismo. "Para fazer conexões, as pessoas precisam saber que estão seguras, e o Facebook também deve ser um lugar onde as pessoas possam expressar suas opiniões livremente, ainda que algumas pessoas achem essas opiniões questionáveis", explica Bickert.
Para isso, é preciso ter uma política interna bastante rígida de combate a discursos que vão além da mera opinião e partem para a ofensa, ou que evidenciem violências e imagens fortes que não são aceitas em uma plataforma tão ampla. Então, usa-se uma combinação de inteligência artificial e moderação humana para não somente varrer a rede social, mas também analisar as denúncias de usuários. Segundo a companhia, essa equipe de 7.500 revisores trabalha 24 horas por dia, 7 dias por semana, e atua em mais de 40 idiomas.
A partir de agora, então, quando você publicar algo que a rede social achou melhor remover, mas você não concorda que aquele conteúdo deveria ter sido bloqueado, você pode apelar. Ao receber a notificação de que uma foto, por exemplo, foi removida, você tem a opção de solicitar uma revisão adicional – e a resposta deve chegar dentro de 24 horas. Caso o Facebook tenha cometido um erro, o usuário é avisado e o conteúdo é liberado.
Exemplo de foto denunciada, mas com o botão "Request Review" para solicitar uma segunda análise (Imagem: Facebook)
Mas o que não pode postar lá?
Tudo isso está devidamente listado nos Padrões de Comunidade do Facebook, mas a gente facilita a sua vida e faz um apanhado geral aqui neste texto.
Em geral, imagens consideradas fortes são comumente barradas. Canibalismo, violência, pessoas agredidas, mutilação, sangue, gente morta, nudez explícita e, obviamente, pornografia são vetados. No caso de imagens contendo sangue, a única exceção (que, ainda assim, passa pela análise da rede social) são casos médicos como, por exemplo, notícias de interesse público. Nesses casos, a imagem aparece bloqueada no feed, com o usuário precisando clicar em "ver foto" para acessar o conteúdo.
Quando a foto é considerada explícita, mas não grave o suficiente para remoção, ela aparece no feed com esssa censura, precisando clicar em "See Photo" para abri-la (Imagem: Facebook)
A rede social também tem um método para tentar identificar potenciais suicidas, ou pessoas que estejam em vias de se machucar, analisando o que elas publicam em seus perfis. Nesses casos, o usuário é notificado e pode receber auxílio se estiver passando por esse tipo de situação. De qualquer maneira, publicar uma foto mostrando que se feriu intencionalmente vai contra as políticas da rede social, e esse conteúdo será removido.
Já para casos de nudez, aí tem uma polêmica. Muitos artistas (fotógrafos, modelos, performers, etc) trabalham com a nudez e precisam do Facebook para divulgar seus jobs. Nesses casos, o jeito é censurar as partes íntimas das imagens, de forma que o usuário possa divulgar seu trabalho sem expor nudez desnecessariamente ao grande público da plataforma. Também há casos em que mulheres compartilham informações sobre a amamentação, e essas fotos podem ser consideradas como nudez explícita para os sistemas da rede social. Nesses casos, vale o apelo para que seja feita uma segunda análise. E nem precisamos falar que compartilhar imagens íntimas de terceiros sem sua autorização é crime, certo?
Discursos de ódio devem ficar longe da rede. Qualquer imagem e/ou texto que enalteça coisas como racismo, xenofobia, capacitismo, homofobia, misoginia, nazismo, etc, nem deveria passar pela análise algorítmica (mas, quando passa, as denúncias são rapidamente verificadas e o conteúdo é removido). O mesmo vale para apologia à pedofilia, bem como exposição de menores de idade a situações vexatórias, além de coisas como cyberbullying e assédio. Tudo isso é proibido.
Spam também não vale. A plataforma tem meios rápidos de verificar se aquele link que você acabou de publicar já não foi postado em sua conta anteriormente – e essa nova publicação será removida por caracterizar envio de spam. Já as notícias falsas ainda estão fazendo o Facebook "apanhar" um bocado, mas a plataforma já vem trabalhando em maneiras de checar a veracidade delas para transformar a rede social em um espaço mais confiável.
Também não pode publicar fotos e informações de documentos pessoais para evitar que tais dados sejam coletados e usados como roubo de identidade. A regra vale para documentos de identificação (RG, CPF, carteira de habilitação, carteira de trabalho, etc), sejam eles seus ou de terceiros. Também se enquadram nessa norma outras coisas como cartões bancários e informações de cartão de crédito, além de telefones e endereços residenciais.
Por fim, compartilhar algo protegido por direitos autorais sem os devidos créditos ou autorização, ferindo a propriedade intelectual de alguém, também é algo passível de remoção. Respeito é bom e tudo mundo gosta.