Por Danielle Brant, João Gabriel e Raquel Lopes | Folhapress
Foto: Divulgação / Wikimedia Commons
O diretor de Relações Governamentais e Políticas Públicas do Google Brasil, Marcelo Lacerda, avalia que o PL das Fake News é vago. Ele também defende que a empresa já adota medidas para moderar conteúdo de ódio e que a responsabilidade por violência nas escolas não é só das plataformas.
Lacerda tece uma série de críticas ao projeto relatado pelo deputado Orlando Silva (PC do B-SP), que deve ser votado na próxima terça-feira (2). Segundo ele, o texto deixa incertezas sobre como será feita a regulação das plataformas e se equivoca ao equiparar o cuidado exigido por mecanismos de buscas ao de redes sociais.
A discussão em torno do projeto ganhou força após o ataque a uma escola em São Paulo que terminou com a morte de uma professora e um atentado em creche de Blumenau (SC) que deixou quatro mortos. O argumento é que a regulamentação das redes poderia ajudar a impedir novas ondas de violência.
A movimentação causou reação das big techs, que afirmam que o projeto relatado por Orlando é genérico e que a violência nas escolas é um problema social, não apenas digital.
"A gente está olhando um problema que tem várias facetas sob só um ponto específico. Não adianta a gente só atacar as redes e falar que foram as plataformas [as responsáveis pela violência] quando tem uma série de outras questões que também precisam ser endereçadas, de cunho social, da própria escola, dos próprios pais, e que a gente também ajuda, como a educação midiática", diz à reportagem Lacerda.
"Se a gente olhar isso só sob um aspecto, a gente pode eventualmente resolver ou endurecer [as leis], mas tem uma série de outros aspectos que não vão", continua.
Lacerda defende que o parecer apresentado na noite desta quinta-feira (27) é vago e traz dispositivos que podem ser "perversos".
Quando questionado se as regras de controle interno do Google são suficientes para impedir a disseminação de discurso de ódio na internet, tendo em vista os ataques às escolas, o diretor defendeu que o projeto precisa ser mais debatido e que sempre há espaço para melhorar.
"A questão é que a gente não é contra nenhum tipo de regulação que fale, ‘ok, a partir de agora você vai ter que fazer x, y ou z'. A questão só é que a gente ainda tem dúvidas sobre o texto que está na mesa, se isso realmente vai ter esse efeito positivo que todo mundo está esperando", diz.
"Porque ainda falta mais concretude em vários dos dispositivos que estão lá e, para isso, precisaria de um pouco mais de tempo para entender e discutir se essas soluções que estão na mesa realmente vão dar o resultado esperado", afirma.
Ele diz ainda que o Google, entre março e abril, cumpriu 740 pedidos de acessos a dados das autoridades governamentais relacionados a terrorismo e ataques a escolas. Mas entende que o projeto, da forma como está redigido, abre brechas para que a lei seja usada contra os seus princípios.
"O texto continua com muitas incertezas e vago em muitos aspectos. De forma geral a gente entende que essas incertezas, essa falta de concretude de como aquilo vai se dar na realidade, vai acabar prejudicando o usuário porque, ao invés de combater a desinformação, tem risco de fomentar a desinformação", diz.
"São vários incentivos perversos que a lei traz para fomentar na verdade a desinformação e não combater", afirma.
A empresa defende que o projeto seja debatido em uma comissão especial. Também critica a falta de audiência pública e de discussão do assunto desde que foi rejeitado em plenário na Câmara, em 2021.
Segundo ele, vários órgãos estão pedindo mais discussão do assunto, como a OAB (Ordem dos Advogados do Brasil). "Ainda falta um debate um pouco mais aprofundado para a gente ter um pouco mais de clareza sobre como vai ser aplicado, quais as consequências [lei] e se aquilo vai gerar o resultado que a gente espera, que é combater a desinformação", disse.
O texto em discussão junta contribuições da proposta aprovada pelo Senado e modificações incorporadas pelo relator na Câmara. Se aprovado pelos deputados, deve voltar ao Senado, por onde o texto original passou em 2020.
Lacerda diz que o projeto traz obrigações que as plataformas não têm clareza de como devem ser feitas.
"Tem uma série de obrigações ali que a gente não sabe exatamente como vão ser feitas, estão sendo jogadas para uma regulação. A gente também não sabe quem vai regular isso. Vai ser o poder federal? A Presidência? Agência específica? Ministério específico? Porque também não tem mais a previsão da entidade regulamentadora", diz.
Na última versão do texto, apresentado nesta quinta-feira (27), Orlando retirou da redação a criação de uma agência reguladora de supervisão das plataformas e deixou explícito o livre exercício de cultos religiosos e a "exposição plena" de seus dogmas e livros sagrados.
A decisão aconteceu após pressão da oposição e da bancada evangélica contra esses dois pontos do texto.
O diretor do Google critica o fato de o projeto, da maneira como está estruturado, estipular as mesmas regras para redes sociais e buscadores. Por exemplo, a previsão de exclusão de postagens, mecanismo que segundo ele não funciona na lógica dos buscadores —que não fazem posts, apenas organizam conteúdo publicado.
Outro ponto que traz polêmica no projeto são os direitos autorais e a remuneração para conteúdo jornalístico.
Artistas pretendem fazer uma manifestação em Brasília na próxima semana para que o texto seja aprovado com instrumentos para remuneração de material produzido por eles e replicado nas redes sociais.
Lacerda critica o texto por não prever a exclusão de conteúdo produzido por empresas jornalísticas. Segundo ele, atualmente, companhias que se dizem do ramo são grandes disseminadoras de fake news —ele preferiu não citar nomes.
Por isso, argumenta, o projeto deveria também prever formas de sanção a essa atividade, e não apenas de remuneração.
Nenhum comentário:
Postar um comentário