Antes da pandemia, a desinformação em redes sociais já era um problema grave. Com a crise sanitária, porém, publicações mentirosas viraram casos de vida ou morte. Foi nesse cenário que o Facebook criou em maio do ano passado um Comitê de Supervisão para decidir o que fica e o que deve sair da plataforma. Desde então, o órgão publicou 11 decisões e tem se mostrado um experimento importante que pode vir a ditar os rumos da moderação de conteúdo na internet.
No atual arranjo, o Comitê é uma espécie de “Supremo Tribunal Federal (STF)” do Facebook para tratar sobre postagens que devem permanecer ou não na rede. Quando a remoção de um conteúdo tem potencial para gerar debate e precedente, é o Comitê que toma a decisão final. O Facebook é obrigado a acatar as decisões – mesmo que contrariem Mark Zuckerberg.
O Comitê conta hoje com um grupo de 20 pessoas escolhidas pelo Facebook, composto por integrantes da academia e de organizações da sociedade civil especializados em temas de direitos humanos – o painel reúne pessoas de 18 países e deve chegar a ter 40 membros. Um fundo de investimento independente da companhia financia o projeto, sendo que o Facebook fez uma doação inicial de US$ 130 milhões.
Desde dezembro, 16 casos já foram selecionados pelo órgão para discussão, alguns gerados por usuários e outros solicitados pelo próprio Facebook. Tanto as decisões quanto os casos em discussão são publicados no site do Comitê, com detalhamento das situações. Em algumas situações, há espaço para contribuições externas.
Um caso brasileiro, por exemplo, mobilizou neste mês entidades como centros de pesquisa para opinarem sobre como o Facebook deveria lidar com uma publicação de um conselho médico estadual do Brasil que critica lockdowns.
Com as discussões ocorrendo de forma pública, o Comitê pode ganhar peso fora das fronteiras do Facebook, e passar a moldar a moderação de conteúdo em toda a internet.
“É importante que todas as decisões sejam públicas. Pode-se criar uma jurisprudência. Não é aquela de tribunal mas não deixa de ter o potencial de influenciar como a internet funciona”, afirma Diogo Coutinho, professor da Faculdade de Direito da Universidade de São Paulo (USP). “Cada caso é um precedente que cria um padrão a ser usado em uma próxima situação semelhante. No médio prazo, esses parâmetros poderiam ser usados mesmo por empresas que não tenham um comitê”, diz.
Influência
O próprio Facebook espera que o Comitê possa ser um exemplo para outras decisões de governança de conteúdo na internet. Além disso, o fato de o órgão ser independente também abre a possibilidade de que sejam criadas dentro dele estruturas como comitês adicionais voltados a outras plataformas – ainda não há informações, porém, de que arranjos do tipo estejam em andamento.
Nenhuma outra rede social tem hoje uma estrutura nos mesmos moldes. O TikTok tem um Conselho Consultivo de Segurança no Brasil composto por seis especialistas em meios digitais. O debate, contudo, é apenas interno.
Já o Twitter afirma que guia sua moderação em regras preestabelecidas, que estão disponíveis publicamente.
“Além disso, contamos com um Conselho de Confiança e Segurança que reúne mais de 40 especialistas e organizações para nos aconselhar”, diz a rede social.
O YouTube explica que remove conteúdo que esteja em desacordo com suas políticas: “Nosso Gabinete de Inteligência monitora notícias, mídias sociais e relatos de usuários para detectar novas tendências a respeito de conteúdo inapropriado e trabalha para garantir que nossas equipes estejam preparadas para resolver os problemas antes que eles se tornem grandes”, afirma.
A empresa também diz que conta “com avaliadores externos de todos os cantos do mundo para fornecer informações sobre a qualidade dos vídeos. Esses avaliadores se baseiam em diretrizes públicas para orientar seu trabalho”.
À prova
Há dúvidas, entretanto, se o modelo do Comitê do Facebook pode ser usado por outras plataformas. O primeiro problema é o custo. “Não é qualquer empresa que consegue sustentar esse modelo – o orçamento foi de milhões de dólares. Há o risco de que essas estruturas possam aprofundar a situação de domínio das grandes plataformas”, afirma Artur Pericles Monteiro, coordenador de pesquisa de liberdade de expressão do InternetLab.
Para provar que o Comitê é uma modelo de governança promissor, o Facebook ainda tem bastante trabalho pela frente. O principal deles talvez seja mostrar que o Comitê não é apenas uma jogada da empresa para se proteger de autoridades e instituições públicas.
“É uma solução engenhosa: se a coisa ficar muito complicada, o Facebook pode terceirizar isso para cabeças independentes. A autorregulação pode ser boa, mas não substitui a regulação estatal”, diz Coutinho.
Para João Pedro Favaretto Salvador, do Centro de Ensino e Pesquisa em Inovação da FGV Direito SP, apesar de ser cedo para dizer se o Comitê dará certo, é importante que exista um experimento desse tipo. “A moderação de conteúdo é um trabalho difícil. As plataformas terem a humildade de dizer que não dão conta de fazer isso sozinhas é um primeiro passo”, diz.
No atual arranjo, o Comitê é uma espécie de “Supremo Tribunal Federal (STF)” do Facebook para tratar sobre postagens que devem permanecer ou não na rede. Quando a remoção de um conteúdo tem potencial para gerar debate e precedente, é o Comitê que toma a decisão final. O Facebook é obrigado a acatar as decisões – mesmo que contrariem Mark Zuckerberg.
O Comitê conta hoje com um grupo de 20 pessoas escolhidas pelo Facebook, composto por integrantes da academia e de organizações da sociedade civil especializados em temas de direitos humanos – o painel reúne pessoas de 18 países e deve chegar a ter 40 membros. Um fundo de investimento independente da companhia financia o projeto, sendo que o Facebook fez uma doação inicial de US$ 130 milhões.
Desde dezembro, 16 casos já foram selecionados pelo órgão para discussão, alguns gerados por usuários e outros solicitados pelo próprio Facebook. Tanto as decisões quanto os casos em discussão são publicados no site do Comitê, com detalhamento das situações. Em algumas situações, há espaço para contribuições externas.
Um caso brasileiro, por exemplo, mobilizou neste mês entidades como centros de pesquisa para opinarem sobre como o Facebook deveria lidar com uma publicação de um conselho médico estadual do Brasil que critica lockdowns.
Com as discussões ocorrendo de forma pública, o Comitê pode ganhar peso fora das fronteiras do Facebook, e passar a moldar a moderação de conteúdo em toda a internet.
“É importante que todas as decisões sejam públicas. Pode-se criar uma jurisprudência. Não é aquela de tribunal mas não deixa de ter o potencial de influenciar como a internet funciona”, afirma Diogo Coutinho, professor da Faculdade de Direito da Universidade de São Paulo (USP). “Cada caso é um precedente que cria um padrão a ser usado em uma próxima situação semelhante. No médio prazo, esses parâmetros poderiam ser usados mesmo por empresas que não tenham um comitê”, diz.
Influência
O próprio Facebook espera que o Comitê possa ser um exemplo para outras decisões de governança de conteúdo na internet. Além disso, o fato de o órgão ser independente também abre a possibilidade de que sejam criadas dentro dele estruturas como comitês adicionais voltados a outras plataformas – ainda não há informações, porém, de que arranjos do tipo estejam em andamento.
Nenhuma outra rede social tem hoje uma estrutura nos mesmos moldes. O TikTok tem um Conselho Consultivo de Segurança no Brasil composto por seis especialistas em meios digitais. O debate, contudo, é apenas interno.
Já o Twitter afirma que guia sua moderação em regras preestabelecidas, que estão disponíveis publicamente.
“Além disso, contamos com um Conselho de Confiança e Segurança que reúne mais de 40 especialistas e organizações para nos aconselhar”, diz a rede social.
O YouTube explica que remove conteúdo que esteja em desacordo com suas políticas: “Nosso Gabinete de Inteligência monitora notícias, mídias sociais e relatos de usuários para detectar novas tendências a respeito de conteúdo inapropriado e trabalha para garantir que nossas equipes estejam preparadas para resolver os problemas antes que eles se tornem grandes”, afirma.
A empresa também diz que conta “com avaliadores externos de todos os cantos do mundo para fornecer informações sobre a qualidade dos vídeos. Esses avaliadores se baseiam em diretrizes públicas para orientar seu trabalho”.
À prova
Há dúvidas, entretanto, se o modelo do Comitê do Facebook pode ser usado por outras plataformas. O primeiro problema é o custo. “Não é qualquer empresa que consegue sustentar esse modelo – o orçamento foi de milhões de dólares. Há o risco de que essas estruturas possam aprofundar a situação de domínio das grandes plataformas”, afirma Artur Pericles Monteiro, coordenador de pesquisa de liberdade de expressão do InternetLab.
Para provar que o Comitê é uma modelo de governança promissor, o Facebook ainda tem bastante trabalho pela frente. O principal deles talvez seja mostrar que o Comitê não é apenas uma jogada da empresa para se proteger de autoridades e instituições públicas.
“É uma solução engenhosa: se a coisa ficar muito complicada, o Facebook pode terceirizar isso para cabeças independentes. A autorregulação pode ser boa, mas não substitui a regulação estatal”, diz Coutinho.
Para João Pedro Favaretto Salvador, do Centro de Ensino e Pesquisa em Inovação da FGV Direito SP, apesar de ser cedo para dizer se o Comitê dará certo, é importante que exista um experimento desse tipo. “A moderação de conteúdo é um trabalho difícil. As plataformas terem a humildade de dizer que não dão conta de fazer isso sozinhas é um primeiro passo”, diz.
Comentários estão fechados.