Passando a limpo o conteúdo do chamado “PL de Fake News”
image
24 de agosto de 2021

Sem comentários

FONTE: CONJUR

Passando a limpo o conteúdo do chamado “PL de Fake News”

24 de agosto de 2021

Por Jéssica Guedes Santos e Juliano Maranhão

Em 2017, fake news foi eleito como expressão do ano pela editora Collins [1]. Claro que o status alcançado pelas fake news nos últimos anos não foi adquirido à toa, especialmente quando se recorda a amplitude alcançada pelo tema em 2016, com a eleição de Donald Trump nos Estados Unidos. A campanha do então presidente dos Estados Unidos foi marcada por estratégias específicas de construção de narrativas desinformativas em diversos temas, alinhadas com discursos inflamatórios pela redução de direitos de determinadas classes minoritárias.

Mas, por óbvio, não foi Trump quem inventou as chamadas fake news. Notícias falsas e conceitos correlatos fazem parte da realidade social há bastante tempo. Inclusive, Yuval Noah Harari, professor e ilustre autor israelense, na sua obra “Sapiens: Uma breve história da humanidade”, aponta que a capacidade de falar sobre algo que não existe com a criação de ficções foi um dos pontos centrais que permitiu a sobrevivência da humanidade, pois permitiu a criação de relações diretas e indiretas que permitiram a criação de meios necessários para o desenvolvimento humano [2].

A mentira não é algo novo na sociedade, e nem se limita ao campo político. Todavia, não é toda mentira que vai ser necessariamente desinformação. Aqui é importante estabelecer um marco conceitual imprescindível quando se trata do assunto. Apesar do termo fake news ser o mais usado, não é o tecnicamente adequado, pois engloba diversos fenômenos diversos.

Para tratar no âmbito de política pública e legislativa, é preciso ter cuidado com o conceito para conseguir analisar o problema de forma efetiva e, consequentemente, traçar soluções que sejam capazes de impedir e/ou reduzir os impactos do problema. Assim, estudo realizado por Claire Wardle e Hossein Derakhshan estabeleceu parâmetros teóricos sobre o assunto e três conceitos centrais [3], quais sejam:

a) Des-information: a informação falsa que é criada para prejudicar uma pessoa, um grupo social, uma organização ou um país.
b) Mis-information: a informação que é falsa, mas que não foi criada com o objetivo de causar danos.
c) Mal-information é a informação baseada na realidade, mas que é usada para causar danos a pessoas, organização ou países.

Destacando o acima exposto, a mis-information — que não detém ainda tradução específica para o português — é uma informação falsa, mas que não tem o objetivo de prejudicar. Por exemplo, pode-se citar um jornalista que cobre algum furo e passa uma informação y, mas, após depois de maior andamento da investigação, descobre que a informação anteriormente passada estava equivocada. O jornalista não quis prejudicar ninguém, porém, acabou transmitindo um fato que não encontrou suporte na realidade. Já o mal-information — que também não tem tradução para o português — é uma informação verdadeira, porém, que é usada para gerar danos, por exemplo, a divulgação de informações sigilosas de empresas com intuito de beneficiar a concorrência.

Já a desinformação se diferencia dos outros dois conceitos, pois é a criação/disseminação de uma notícia falsa com o objetivo de atingir alguém ou algum grupo. A desinformação reflete perspectiva na qual algum interessado vai direcionar esforços econômicos, financeiros e políticos para criar e espalhar fatos mentirosos com o intuito de causar impactos negativos em terceiros, que podem ser pessoas ou organizações. Atualmente, pode-se fazer um acréscimo para incluir no conceito de desinformação a distorção ou descontextualização de uma informação verdadeira veiculada de forma enganosa.

Por isso, em um primeiro momento, a discussão regulatória deve ser centralizada sobre as formas de combate à desinformação. Nesse sentido, a internet é campo amplo para a desinformação por conta da velocidade de disseminação da informação, a baixa barreira de entrada de informação, a facilitação do uso do anonimato e as formas de financiamento de conteúdos [4].

Para além de Trump, dentro do aspecto eleitoral, foi possível observar condutas desinformativas em vários países, inclusive no Brasil. Devido a posturas que poderiam caracterizar abuso de poder econômico pela contratação de disparos de notícias falsas pelo Whatsapp nas eleições gerais de 2018, o Tribunal Superior Eleitoral (TSE) julgou duas Ações de Investigações Eleitorais (Aijes) em face da chapa do presidente eleito, as quais, apesar de terem sido julgadas como improcedentes em fevereiro de 2021 [5], indicam que o tema é central no país hoje.

Buscando estabelecer formas de diminuir o impacto da desinformação, os atores políticos passaram a discutir formas de regulação do assunto, postura que ganhou força com a aprovação pelo Senado Federal do PL 2630/2020 de autoria do senador Alessandro Vieira.

Atualmente, a Câmara dos Deputados instituiu grupo de trabalho (GT) específico para estudar e elaborar parecer sobre o citado PL, que detém coordenação da deputada Bruna Furlan e a relatoria do deputado Orlando Silva. O GT está em fase de realização de audiências públicas para coleta de informações e opiniões de especialistas.

O PL 2630/2020 é composto por 36 artigos e sete capítulos e pretende instituir a “Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet”. De forma geral, o PL pretende estabelecer um regime de responsabilização das plataformas, as quais são divididas pelo PL em redes sociais e serviços de mensageria privada.

O PL 2630/2020 tem aplicação condicionada para as plataformas de redes sociais e serviços de mensageria privada que tenham mais de dois milhões de usuários registrados no Brasil. Entre os nove princípios presentes no PL, destacam-se o respeito ao usuário em sua livre formação de preferências políticas e de uma visão de mundo pessoal e a responsabilidade compartilhada pela preservação de uma esfera pública livre, plural, diversa e democrática.

Sobre os objetivos, podemos destacar um que parece sintetizar bem qual é a pretensão do PL, qual seja, 1) o fortalecimento do processo democrático por meio do combate ao comportamento inautêntico e às redes de distribuição artificial de conteúdo e 2) o fomento ao acesso à diversidade de informações na internet no Brasil.

O artigo 6º do PL estabelece que os provedores de redes sociais e os serviços de mensageria privada devem adotar medidas para vedar o funcionamento de contas inautênticas, vedar contas automatizadas não identificadas como tal e identificar todos os conteúdos impulsionados e publicitários que a distribuição tiver sido feita por pagamento.

O PL estabelece em uma das suas previsões mais polêmicas que redes sociais e serviços de mensageria podem solicitar a apresentação de documento de identidade do usuário quando houver denúncia que viole a lei, indícios de contas inautênticas ou ordem judicial.

Especificamente para os serviços de mensageria privada, o PL determina a elaboração de quatro políticas básicas: 1) manter a natureza interpessoal do serviço, 2) limitar o número de encaminhamentos de uma mesma mensagem e o número máximo de membros por grupo, 3) instituir mecanismos para aferir consentimento prévio do usuário para inclusão em grupos e correlatos e 4) desabilitar, por padrão, o aceite para inclusão em grupos e semelhantes. O PL classifica o encaminhamento em massa como o envio de uma mesma mensagem por mais de cinco usuários em um intervalo de até 15 dias para grupos e semelhantes.

Sobre a moderação de conteúdo, um outro tema polêmico do PL, o artigo 12 prevê que em caso de dano imediato ou de difícil reparação, de segurança da informação ou do usuário, de violação a direitos e crianças e adolescentes, de ocorrência de crimes tipificados na Lei n° 7.716/1989 (define os crimes resultantes de preconceitos de raça ou cor), ou de grave comprometimento da usabilidade, integridade ou estabilidade da aplicação, os provedores podem retirar o conteúdo sem notificar o usuário. Nos outros casos, os provedores devem notificar o usuário sobre a fundamentação, o processo de análise e a aplicação da medida, e, em todos os casos, deve garantir a possibilidade do usuário recorrer da indisponibilização de conteúdos e contas.

O PL estabelece obrigação específica para as redes sociais apresentarem relatórios trimestrais de transparência que devem conter diversas informações, dentre elas, o número total das medidas de moderação de contas e conteúdos e as medidas adotadas e o número total de contas automatizadas identificadas.

Para além disso, as redes sociais também têm como obrigação identificar todos os conteúdos impulsionados e publicitários, indicando a conta responsável pelo impulsionamento/anúncio e permitir que o usuário acesse informações de contato dessa conta. Inclusive, as redes sociais podem requerer que os anunciantes confirmem sua identificação.

O PL também prevê interessante capítulo sobre a atuação do poder público, no qual estabelece que as contas dos órgãos e entidades da Administração Pública e dos agentes políticos cuja competência advém da Constituição (por exemplo detentores de mandatos eletivos) são de interesse público, portanto, não podem restringir o acesso de outras contas às suas publicações.

Além disso, a Administração Pública passaria a ter obrigação de expor informações e gastos com impulsionamento ou propaganda de conteúdo na rede no respectivo portal da transparência, informando questões como o valor do contrato, os critérios de definição do público-alvo e a lista de aplicações nas quais o conteúdo foi vinculado.

Para acompanhar a aplicação da legislação, o PL cria o Conselho de Transparência e Responsabilidade na Internet, que será vinculado ao Congresso Nacional e tem como atribuição central a realização de estudos, pareceres e recomendações sobre liberdade, responsabilidade e transparência na internet. O conselho será formado por 21 conselheiros com mandatos de dois anos permitindo uma recondução. Entre a composição, encontram-se duas cadeiras reservadas para a polícia, uma para o Conselho Nacional dos Chefes e Polícia Civil e outra para o representante do Departamento de Polícia Federal.

Outro ponto interessante do PL é a previsão da autorregulação regulada no artigo 30, que permite que as redes sociais e serviços de mensageria criem instituição para auxiliar no cumprimento da lei com atribuições de instituir e administrar plataforma digital voltada para a transparência e a responsabilidade no uso da internet e disponibilizar serviço de atendimento e encaminhamento de reclamações, entre outras.

O PL estabelece duas sanções específicas para o descumprimento da lei: advertência com indicação de prazo para adoção de medidas corretivas e multa de até 10% do faturamento do grupo econômico no Brasil no seu último exercício. Sendo que, as duas sanções supracitadas podem se aplicadas sem prejuízo de outras penalidades civis, criminais ou administrativas que subsistam e o valor auferido deve ser destinado ao Fundo de Manutenção e Desenvolvimento da Educação Básica e de Valorização dos Profissionais da Educação (Fundeb) para ser empregado em ações de educação e alfabetização digitais.

Já nas disposições finais, o PL também define que as redes sociais e serviços de mensageria privada devem ter sede e nomear representantes legais no Brasil permitindo o cumprimento das ordens judiciais brasileiras.

Diante do panorama apresentado que engloba os principais pontos do PL 2630/2020, é possível perceber que, apesar do PL circular na mídia como uma roupagem de combate às fake news, o que pretende é estabelecer um regime de responsabilização das plataformas, como até exposto até na própria definição do escopo do PL como Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. Tanto é que somente temos citação expressa da palavra “desinformação” em duas oportunidades relacionadas às atribuições do conselho.

Porém, não se pode olvidar que fomentar e estabelecer critérios de responsabilidade e transparência na rede pode ser uma das formas de combate à desinformação, a questão que se apresenta é analisar se as previsões do PL 2630/2020 conseguem atingir esse objetivo sem violar a liberdade de expressão do usuário, direito fundamental no ordenamento jurídico nacional e princípio central para a governança da internet.

[1] Disponível em: https://www.bbc.com/portuguese/internacional-41843695. Acesos em: agosto 2021.

[2] Como diz o autor israelense, “nossa linguagem evoluiu como uma forma de fofoca. De acordo com essa teoria, o Homo Sapiens é antes de mais nada um animal social (…) A teoria da fofoca pode parecer uma piada, mas vários estudos a corroboram. Ainda hoje, a maior parte da comunicação humana – seja na forma de e-mails, telefonemas ou colunas nos jornais – é fofoca. É tão natural para nós que é como se nossa linguagem tivesse evoluído exatamente com esse propósito (…) Mas a característica verdadeiramente única da nossa linguagem não é sua capacidade de transmitir informações sobre homens e leões. É a capacidade de transmitir informações sobre coisas que não existem.” In:Sapiens: Uma breve história da humanidade. Tradução: Janaína Marcoantonio. 26 ed. Porto Alegre, RS: L&PM, 2017.p.32.

[3] Disponível em: WARDLE, Claire; DERAKHSHAN, Hossein. Information Disorder: Toward an interdisciplinar framework for research and policy making. Council of Europe, 2017; Disponível em: https://rm.coe.int/information-disordertoward-an-interdisciplinary-framework-for-researc/168076277c. Acesso em: agosto 2021.

[4] GROSS, Clarissa Piterman. Fake news e democracia: discutindo o status normativo do falso e a liberdade de expressão. In: Fake News: a conexão entre a desinformação e o direito. Diogo Rais (coord.). 2ª ed. São Paulo: Thomson Reuters Brasil, 2020.

[5] Disponível em: https://www.tse.jus.br/imprensa/noticias-tse/2021/Fevereiro/tse-julga-improcedentes-duas-acoes-contra-bolsonaro-por-suposto-disparo-em-massa-de-mensagens-pelo-whatsapp-nas-eleicoes-de-2018. Acesso em: julho 2021.

Jéssica Guedes Santos é advogada na área de privacidade e de proteção de dados, mestranda em Direito na Universidade de Brasília (UnB), pesquisadora do Instituto Legal Grounds. Cofundadora do Bot Jurídico.

Juliano Maranhão é professor da Faculdade de Direito da USP e diretor do Instituto Legal Grounds.

Revista Consultor Jurídico, 24 de agosto de 2021, 12h01

https://www.conjur.com.br/2021-ago-24/direito-digital-passando-limpo-conteudo-chamado-pl-fake-news

Compartilhe: