Terça-feira, 30 de Novembro de 2021

Home em foco Ganhadora do prêmio Nobel da Paz diz que o Facebook prioriza fake news e ódio

Compartilhe esta notícia:

O inferno astral de Mark Zuckerberg parece não ter fim. Após a queda global de suas redes (Facebook, Instagram e Whatsapp) por sete horas e a denúncia de uma ex-executiva ao Congresso norte-americano de que o Facebook é nocivo à democracia, agora o ataque vem justamente da Nobel da Paz, a jornalista filipina Maria Ressa.

Em entrevista, Ressa disse textualmente que a maior rede social do mundo “prioriza a disseminação de mentiras misturadas à raiva e ao ódio aos fatos”.

Ela levou o Nobel da Paz junto ao colega jornalista russo Dmitri Muratov e tem lugar de fala porque, segundo o comitê norueguês que a premiou, “expôs o abuso de poder, o uso da violência e o crescente autoritarismo em seu país natal”.

“Se você não tem fatos, não pode ter verdades, não pode ter confiança. Se você não tem nada disso, não tem democracia”, disse Ressa sobre o Facebook.

A rede de Zuckerberg pontuou, em resposta, que “continua investindo para reduzir a visibilidade de conteúdo prejudicial e que acredita ‘na liberdade de imprensa’”.

Violação das regras

O jornal “The Wall Street Journal” publicou neste domingo (17) uma reportagem que evidencia, mais uma vez, a omissão do Facebook quanto a conteúdos de ódio e violência excessiva. Mark Zuckerberg é CEO do Facebook, que integra um grupo também formado por WhatsApp e Instagram.

Segundo documentos internos a que o jornal teve acesso, a rede social apaga poucas postagens que violam as regras por discurso de ódio e tampouco pune os autores desses conteúdos.

A reportagem diz ainda que a inteligência artificial do Facebook não é capaz de detectar conteúdos impróprios, que continuam publicados na plataforma.

O jornal afirma que, quando o algoritmo da rede social não tem certeza de que o conteúdo viola as regras, ele opta por mostrar o conteúdo com menos frequência aos usuários da rede social.

Apesar disso, os documentos a que o jornal teve acesso mostram que a rede social decidiu há dois anos diminuir o tempo em que os revisores humanos se dedicavam a analisar denúncias de discurso de ódio e tomou medidas para reduzir também as reclamações dessa categoria.

As informações apuradas pelo jornal contrastam com afirmações de executivos do Facebook de que a inteligência artificial resolveria esses problemas da empresa.

Em nota publicada neste domingo, o vice-presidente de integridade do Facebook, Guy Rosen, diz que a rede social foca em reduzir a quantidade de vezes que esse conteúdo é visto pelos usuários e que a tecnologia tem tido um impacto no combate ao discurso de ódio.

Ainda de acordo com Rosen, a rede social utiliza tecnologia para detectar esses conteúdos de forma proativa, encaminhá-los para os revisores e, por fim, apagá-los do Facebook.

“Dados extraídos de documentos que vazaram estão sendo usados ​​para criar uma narrativa de que a tecnologia que usamos para combater o discurso de ódio é inadequada e que representamos erroneamente nosso progresso. Isso não é verdade”, diz a nota.

“Não queremos ver ódio em nossa plataforma, nem nossos usuários ou anunciantes, e somos transparentes sobre nosso trabalho para removê-lo. O que esses documentos demonstram é que nosso trabalho de integridade é uma jornada de vários anos. Embora nunca sejamos perfeitos, nossas equipes trabalham continuamente para desenvolver nossos sistemas, identificar problemas e criar soluções.”

Compartilhe esta notícia:

Voltar Todas de em foco

Ex-presidente dos Estados Unidos Bill Clinton deixa hospital na Califórnia após uma semana de internação
Irmã do ministro Dias Toffoli é inocentada em investigação por nepotismo em São Paulo
Deixe seu comentário
Pode te interessar
Baixe o app da RÁDIO Pampa App Store Google Play

No Ar: Pampa News