Sumário: 1. Introdução; 2. O cenário e a desinformação; 3. Liberdade de expressão, governança da internet e reserva de jurisdição; 4. Autorregulação x Legalidade; 5. Considerações Finais; 6. Referências.
1 INTRODUÇÃO
A internet transformou nossas vidas em diversos sentidos, e dentre eles, foi capaz de transformar o papel da comunicação. Tradicionalmente conhecemos a comunicação como aquele conteúdo que é enviado do emissor ao receptor, e assim, as comunicações em massa seguiam esse mesmo trajeto, o que ficou conhecido como comunicação de “um para muitos” como é no rádio, na imprensa escrita e na televisão.
Mas a internet revolucionou esse quadro e a comunicação passou a ter outro desenho, a tradicional comunicação de um para muitos, passou a ser uma comunicação de “muitos para muitos”, onde os papéis de emissor e receptor de conteúdo se fundem e a chamada democratização da comunicação de massa foi trazida pela internet desde as já antigas salas de bate-papo.
Esse redesenho trouxe enorme desafios à liberdade de expressão, já que qualquer pessoa com acesso à rede tem condições de divulgar mensagens sobre qualquer assunto e atingir um número incontável de pessoas, potencializando e ampliando o exercício da livre manifestação de pensamento.
Com a transformação da tecnologia e da comunicação as chamadas big techs, grandes empresas de tecnologia com alcance global, foram criadas e assumindo um papel cada vez mais relevante e desafiador neste cenário. Na década de 70 com a Microsoft e Apple, no final dos anos 90 com Google e no início dos anos 2000 com o Facebook, as plataformas digitais expandiram esse processo comunicacional trazendo ao Direito novos desafios.
O Marco Civil da Internet, a Lei 12.965 de 2014, que ficou conhecido como a Constituição da internet no Brasil, procurou regulamentar todo esse processo definindo os primeiros passos diante do desafio e seu art. 19 tratou especificamente da responsabilidade por danos decorrentes de conteúdo gerado por terceiros.
Seu teor já demonstra por si os dilemas de sua criação, uma vez que se inicia com semelhanças às conhecidas cartas de intenções definindo em seu caput suas premissas e objetivos como: assegurar a liberdade de expressão e impedir a censura.
É curioso um dispositivo que busca a responsabilização iniciar seu texto justamente com a justificativa de sua existência, mas foi assim que o Brasil determinou uma espécie de subsidiariedade da responsabilidade dos provedores de aplicação perante o conteúdo de terceiros.
Como decorrência dessas premissas, determinou que cabe à ordem judicial específica a responsabilidade das plataformas digitais diante desses conteúdos: “somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências (...)”3.
O objetivo do presente artigo reside justamente em investigar se o art. 19 do Marco Civil da Internet, ao destinar ao Judiciário uma espécie de monopólio para a remoção de conteúdo de terceiros, teria também excluído desta função os provedores de aplicação, em especial diante do fenômeno da desinformação online.
Mais precisamente, a problematização aqui poderia ser sintetizada com a seguinte pergunta: Os provedores de aplicação, diante do art. 19 do Marco Civil da Internet, teriam tido seus poderes restringidos e dependeriam de ordem judicial para a remoção de conteúdo de terceiro, em especial diante da desinformação online, ainda que diante de suas próprias plataformas digitais?
Algumas hipóteses que surgem a partir deste problema de pesquisa é que a legislação brasileira, em nome da liberdade de expressão e proibição de censura, teria realmente limitado a atuação das plataformas digitais perante conteúdo de terceiro; ou o art. 19 tacitamente, se refere apenas a intervenções externas às plataformas, e poderia ser compreendido como complementar às políticas dos provedores de aplicação, destinando ao judiciário e aos provedores de aplicação a possibilidade de restringir conteúdos de terceiros.
A partir da metodologia dedutiva o presente artigo busca seguir o trajeto de uma espécie de cadeia de raciocínio partindo da análise geral para a específica, até suas conclusões, buscando a utilização de procedimentos de revisão de literatura, raciocínio e, em certa medida empirismo, as hipóteses poderão ser testadas resultando em sua confirmação, refutação ou reconstrução.
Após a presente pesquisa os resultados apontam para uma compatibilidade entre o art. 19 do Marco Civil da Internet e a prática de moderação de conteúdo por parte dos provedores de aplicação, conforme pretende-se demonstrar ao longo do desenvolvimento deste artigo.
2 O CENÁRIO E A DESINFORMAÇÃO
A realidade digital mudou a relação da sociedade com seu tempo, naquilo que Ricardo Campos apresenta como uma ruptura epocal se comparada à era do livro impresso4, modificando a lógica da comunicação tradicional.
No Brasil, um bom exemplo dessa expansão é o número cada vez maior de brasileiros com acesso à rede que, em 2021, segundo pesquisa do IBGE (Instituto Brasileiro de Geografia e Estatística), chegou a 90% dos domicílios brasileiros, sendo que, dentre os 183,9 milhões de pessoas com dez ou mais anos de idade no país, 84,7% utilizaram a internet no período5.
Diferentemente do que ocorria há alguns anos atrás, os usuários da rede mundial de computadores também atuam como produtores de conteúdo, exercendo o direito de informar e influenciar comportamentos, atuando de forma ativa não apenas como meros ouvintes, tal como costumeiramente se dava na imprensa tradicional, transformando a internet e, principalmente, as mídias sociais em um imenso fórum de debates6.
Nesse aspecto, as mídias sociais ganharam papel de grande destaque para manifestações populares. Atualmente, mais de 59,3% da população mundial é composta de usuários de redes sociais. Os usuários dessas plataformas cresceram 190 milhões em 2021, atingindo um total de 4,74 bilhões no início de outubro de 20227.
Esse gigantesco palco erigido pelas mídias sociais transferiu à rede grande parte do exercício da cidadania. Por outro lado, da mesma forma que a internet trouxe muitos benefícios, a web também trouxe muitos desafios, dentre eles a chamada desinformação. Resumidamente, o conceito de desinformação pode ser traduzido como informações falsas, imprecisas ou enganadoras criadas com o objetivo de causar prejuízo de maneira proposital ou para fins lucrativos8.
O significativo aumento da desinformação é uma realidade difícil de ignorar e ficou ainda mais preocupante com a pandemia do novo Coronavírus (COVID-19), já que as mídias sociais, ao tempo em que ocupam cada vez maior importância no espaço da comunicação de massa, são também utilizadas para manipulação social organizada. O debate sobre desinformação também envolveu o Tribunal Superior Eleitoral durante as eleições de 2022, em razão das notícias fraudulentas que colocavam em dúvida a confiabilidade do sistema eleitoral brasileiro9. O próprio Supremo Tribunal Federal, no julgamento da ADPF 572, demonstrou grande preocupação com os efeitos das chamadas fake news sobre a democracia e as instituições10.
A questão crucial relevada é que desinformação cria uma atmosfera de incerteza e desconfiança, alimentando e ampliando a polarização de opiniões na sociedade11, o que pode resultar em atos de violência. Exemplo disso foi o evento do dia 8 de janeiro de 2023 em Brasília, capital brasileira, quando extremistas e radicais de extrema direita - que, com base em notícias falsas sobre uma suposta fraude eleitoral, rejeitavam o resultado das eleições presidenciais brasileiras de 2022 - procederam à infame invasão e destruição das dependências do Supremo Tribunal Federal, Congresso Nacional e Palácio do Planalto12.
Sob essa perspectiva, a regulação de condutas abusivas em um ambiente descentralizado não é tarefa simplória. No Brasil, o Marco Civil da Internet regulamentou direitos e deveres no âmbito da rede, e, em seu artigo 19, atribuiu às mídias sociais o dever de remoção de conteúdo cibernético apenas mediante ordem judicial, ressalvadas as expressas exceções legais. Ocorre que a desinformação vem tomando contornos cada vez mais sofisticados, de modo que o Poder Judiciário, mesmo sendo um importante ator no controle de abusos, não tem condições de atuar com a celeridade necessária à regulação do conteúdo online, pela falta de expertise para combater a produção e divulgação de fake news13.
Por essa razão, a ideia de moderação de conteúdo feita pelas próprias mídias sociais, também conhecida como “autorregulação”, ganhou destaque nos últimos anos. Isto é, sem prejuízo do controle jurisdicional, algumas mídias sociais recrudesceram as regras de utilização de suas plataformas para proibir, por exemplo, desinformação sobre o processo eleitoral brasileiro14, bem como, sobre a COVID-1915, como forma de mitigar os riscos à violação de direitos. Essa nova dinâmica possibilitou aos provedores de aplicação remover informações que contrariem essas diretrizes e, em último caso, rescindir o contrato com o usuário por meio da suspensão ou até cancelamento da respectiva conta.
Embora a moderação de conteúdo pelas próprias plataformas possa até parecer uma novidade, fato é que as mídias sociais sempre exigiram de seus respectivos usuários a observância às regras de suas plataformas. Exemplo disso é o Oversight Board (Comitê de Supervisão), criado pelo Facebook (atualmente Meta), para ajudar a empresa a criar e modificar regras sobre o que deve ser permitido e proibido em sua plataforma16.
Todavia, o alvoroço global em torno das chamadas fake news colocou luz sobre a autorregulação feita pelas próprias plataformas, o que se refletiu em decisões judiciais17 recentes que, juntamente com a recalcitrância legislativa impondo limitações sobre tal moderação, coloca em dúvida essas ações de autorregulação, questionando se tais medidas se coadunam com o ordenamento jurídico18.
Observe-se, a título de exemplo, a controvérsia judicial que ganhou notoriedade recentemente, sobre a remoção do canal “Terça Livre” pelo YouTube, de titularidade de Allan dos Santos. Neste caso, o titular do canal questionou a possibilidade de a plataforma remover o canal e aplicar seus próprios termos de uso, por considerar a medida exagerada e abusiva19. Outro exemplo é a judicialização do banimento do ex-presidente dos Estados Unidos, Donald Trump, da rede social Twitter, por suposta incitação à violência e à invasão do Congresso americano feita possivelmente através da referida plataforma20.
Nestas condições, o presente trabalho tem como objetivo responder, através do método dedutivo, se a moderação de conteúdo realizada pelas mídias sociais sobre desinformação é ou não compatível com o ordenamento jurídico, de modo a concluir se a autorregulação nesse aspecto é desejável como uma das medidas para o combate às notícias falsas.
3 LIBERDADE DE EXPRESSÃO, GOVERNANÇA DA INTERNET E RESERVA DE JURISDIÇÃO
É cediço que a evolução dos meios de comunicação provocou significativos impactos na garantia de direitos fundamentais como a liberdade de expressão, especialmente em função da possibilidade de compartilhamento instantâneo de informações, sem respeito às fronteiras geográficas e globais. A garantia à liberdade de expressão encontra raízes na proteção do regime democrático e na valorização da pluralidade na construção das ideias, em face da ameaça da constrição estatal.
O direito fundamental à liberdade de expressão pode ser definido sob duas dimensões, a subjetiva e a objetiva. A dimensão subjetiva deriva de um direito negativo que impede que os indivíduos tenham a sua faculdade de manifestação pelo Estado, caracterizando-se por um “direito de abstenção do Estado de uma conduta que interfira sobre a esfera de liberdade do indivíduo”21. Nessa dimensão, o direito à liberdade de expressão encontra seus limites sempre que for utilizado como pretexto para cometer crimes, para incitar a violência ou efetuar a discriminação.
As mudanças nos meios de comunicação responsáveis pela difusão de informação, bem como dos espaços de trocas de ideias ensejam a necessidade de atualização das ferramentas de garantia da liberdade de expressão e acesso à informação. Consolida-se uma esfera pública digitalizada, estruturada a partir de regras de convivência que moldam a participação, a conduta e as expectativas dos usuários, além de desincentivar comportamentos abusivos. Trata-se de um ambiente multipolarizado, em que os fluxos informacionais ocorrem de forma extremamente rápida. Em verdade, tais fluxos são tão intensos que o efeito da manipulação pode ser compreendido como um efeito colateral desse universo, oriundo de agentes maliciosos abusam dessa liberdade, distorcendo fatos e manipulando informações. Não sem razão, esse fenômeno alterou os papéis do governo e dos agentes privados na regulação do mundo digital22.
O ambiente virtual requer, nesse contexto, regras de governança eficazes contra a utilização abusiva de seus mecanismos. No Brasil, o Marco Civil da Internet regulamentou princípios, garantias, direitos e deveres para o uso da internet. Nesse sentido, o artigo 19 da referida legislação, com o intuito de assegurar a liberdade de expressão e impedir a censura, implementou o princípio da reserva de jurisdição, limitando as hipóteses em que as plataformas podem ser responsabilizadas. Estabeleceu-se, portanto, que o provedor de aplicações de internet somente poderá ser responsabilizado por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para tornar indisponível o conteúdo apontado como infringente.
Justamente por ter implementado o princípio da reserva de jurisdição, há quem entenda que as mídias sociais não podem fazer a moderação de conteúdo e suprimir manifestações lançadas nas plataformas, sob o argumento de que a legislação condicionou a remoção de material cibernético à ordem judicial23 ou mesmo sustentando que deve prevalecer a liberdade de expressão24 ou, ainda, que a moderação não se coaduna com o ordenamento jurídico25.
Em princípio, pode não parecer adequado deixar sob a responsabilidade dos provedores de aplicação a decisão pela remoção de conteúdo de suas plataformas, já que a legislação parte da ideia de que a avaliação judicial dos interesses constitucionalmente em conflito tem como objetivo assegurar a liberdade de expressão e impedir a censura. Todavia, quando realizada para combater a desinformação, a moderação de conteúdo feita pelas mídias sociais deve ser compreendida como um instrumento relevante para a garantia de uma esfera pública saudável, bem como para a proteção dos direitos de todos os participantes destas plataformas. Isso não significa, por outro lado, que a moderação deva ser realizada de forma indiscriminada, tampouco que deva ser feita sem o conhecimento dos usuários. É importante que as regras estejam claras e sigam procedimentos previamente estabelecidos, permitindo o direito de defesa.
Segundo Chiara Spadaccini de Teffé, a Lei nº 12.965/14 não impede que os provedores de aplicação possam determinar requisitos para remoção direta de conteúdo em seus termos e políticas de uso; devem apenas evitar abusos, como bloqueios de conteúdos sem qualquer justificativa ou sem garantia do contraditório e da ampla defesa às partes26.
Não se pode ignorar, de todo modo, que a questão é polêmica, já que, no Brasil, a Medida Provisória nº 1.068/2021 - que perdeu a validade por ser considerada inconstitucional pelo Senado Federal - impôs uma série de requisitos prévios para que os provedores pudessem fazer a moderação de conteúdo de suas plataformas27. Nos Estados Unidos, os Estados do Texas e da Flórida também agiram de modo a restringir a ação das mídias sociais à moderação de conteúdo. A legislação House Bill 2028 do Estado do Texas proibiu as grandes plataformas de mídia social de remover postagens de usuários com base em “pontos de vista”; já a legislação SB 707229 do Estado da Flórida proibiu as mídias sociais de remover perfis de candidatos a cargos políticos ou de empreendimentos jornalísticos de suas plataformas. Essas legislações foram suspensas por ordem judicial e encontram-se sob escrutínio da Justiça norte-americana30/31.
A polêmica, contudo, não parece superar o fato de que a moderação é uma prática legítima, inclusive porque, como plataformas privadas, as mídias sociais têm autonomia para desenhar seu próprio modelo de negócio, conforme prevê o artigo 170 da Constituição Federal, na forma contratual, posto que a liberdade de expressão não pode ser salvo-conduto para prática de desinformação, já que nenhum direito pode ser absoluto32. Se a liberdade de expressão não pode viabilizar ideias e discursos que coloquem em risco a sociedade, deve ela compatibilizar-se com outros direitos fundamentais.
Durante o período de pandemia de COVID-19, observou-se intensa disseminação de desinformação sobre a doença, sugerindo-se desde curas milagrosas até mensagens que colocavam em dúvida a existência do vírus. A disseminação de notícias falsas foi considerada o verdadeiro entrave para o enfrentamento eficiente da pandemia33. A Organização Mundial de Saúde (OMS) tratou do tema a partir do conceito de “infodemia”34, destacando os riscos para a saúde da população em razão da circulação de notícias falsas relacionadas à COVID-19.
Notícias fraudulentas colocando em dúvida a higidez do sistema eleitoral brasileiro também trouxeram gravíssimas consequências para a democracia e as instituições. Tamanha a repercussão que alguns extremistas, baseados na convicção de que houve fraude nas eleições presidenciais de 2022, invadiram e destruíram as dependências do Supremo Tribunal Federal, Congresso Nacional e o Palácio do Planalto35.
Nesse contexto, a moderação de conteúdo feita pelas mídias sociais para o enfrentamento da desinformação caracteriza-se, na verdade, como uma expectativa social à promoção de um ambiente virtual saudável, não um cerceamento à liberdade de expressão.
O artigo 19 do Marco Civil da Internet não proíbe as mídias sociais de remover conteúdo sem ordem judicial. A remoção mediante ordem judicial a que se refere o dispositivo apenas estabelece um marco de responsabilidade ao provedor, delimitando o momento em que ele assume a responsabilidade pelo conteúdo, caso não o remova mesmo diante de uma ordem judicial.
Marcel Leonardi afirma que a existência de ordem judicial serve apenas para avaliar a responsabilização a posteriori da plataforma, não condicionando sua atuação à existência de ordem judicial: “cada provedor continua livre para implementar as políticas que entender pertinentes para remoção voluntária de conteúdo”36. No tocante à remoção, o provedor não fica de mãos atadas aguardando a ordem judicial; pode perfeitamente remover o conteúdo de acordo com seus termos de uso e sem ordem judicial37.
As notícias falsas, além de prejudicarem a qualidade dos debates e a capacidade dos cidadãos de tomarem decisões bem informadas, representam um grave risco à liberdade de expressão e à honra e imagem de diversas pessoas, por trazerem ao público conteúdos falsos como se verdades fossem, minando a confiança nas instituições e nos meios de comunicação, o que compromete o desenvolvimento saudável das democracias38.
Esses debates evidenciam que o Poder Judiciário vem se tornando um participante ativo na definição sobre a aplicação dos termos de uso pelas plataformas, inclusive, em muitos casos, admitindo que os provedores façam a moderação de conteúdo, anuindo que tal medida se coaduna com o ordenamento jurídico39.
4 AUTORREGULAÇÃO X LEGALIDADE
A discussão acerca da possibilidade de os provedores de aplicações realizarem moderação de conteúdo parece ser compatível com a tendência atual de modular a responsabilidade de novos intermediários num contexto experimental de maior responsabilidade de seu próprio meio, para além da liberdade de expressão. Vê-se, ainda, uma tendência de fomento à inovação baseada num modelo que extrapola o simples processo político de formação da vontade pública, configurando uma espécie de proceduralização da proteção jurídica na sociedade da plataforma, a qual deve levar em conta a dinâmica das redes de computadores, aparelhos e modelos comerciais atuais. O intuito é, precisamente, equiparar a proteção dos direitos dentro do próprio meio, estabelecendo um dever constante de observação por parte dos tribunais dos Estados e suas agências40.
Prova da superação da discussão sobre autorregulação é a ideia de “autorregulação regulada”. Nesta, o Poder Público estabelece aos provedores um procedimento transparente, com direito de defesa, no qual podem ser reclamadas e também contestadas a adoção de medidas de controle pelos provedores. A lógica da autorregulação regulada é focar na “cooperação entre o estado regulador e os atores ou setores sociais a serem regulados”41.
A autorregulação regulada ficou muito conhecida por conta da NetzDG, lei alemã que obriga os provedores de redes sociais atuantes no país a adotar um sistema de gerenciamento de denúncias a respeito de publicações de conteúdo ilícito ou ofensivo42. A NetzDG não é imune a críticas, da mesma forma que a moderação de conteúdo feita diretamente pelos provedores. Muitos afirmam que a legislação “privatizou” o controle sobre o fluxo das comunicações, relegando às empresas privadas a tarefa de excluir conteúdos, desobrigando o Poder Judiciário de tal controle43.
Além disso, existe a preocupação de que a lei quebre a neutralidade do Governo, pois o Ministério da Justiça tem acesso às formas com que as mídias sociais implementam seus mecanismos de exclusão. Vale destacar que a NetzDG inspirou o projeto de Lei nº 2630/2020, também conhecido no como “Lei das Fake News”, atualmente em discussão no Congresso brasileiro44.
Recentemente, o Parlamento Europeu também aprovou um novo Regulamento de Serviços Digitais (RSD) que substitui a Diretiva 2000/31. Previsto para entrar em vigor a partir de 1º de janeiro de 2024, o novo regramento estabelece obrigações para prestadores de serviços digitais - dentre eles as mídias sociais - que envolvem autorregulação regulada, como forma de combater a propagação de conteúdos ilegais e a desinformação45.
A regulação de condutas abusivas em um ambiente descentralizado, como é o caso da internet, não é providência das mais simples. A utilização de robôs, a criação de perfis falsos e a rapidez da transmissão de notícias torna o trabalho ainda mais complexo46. Pela sua importância, a regulação de condutas abusivas nas plataformas digitais requer um modelo operacional que, ao lado de entes públicos, permita a contribuição de outros atores sociais.
A jurisdição estatal, por si só, não é capaz de proteger as pessoas com a mesma velocidade em que se dá uma conduta danosa, nem mesma medida desta. A perspectiva de que as decisões judiciais são o principal antídoto à desinformação é uma ilusão47.
A moderação de conteúdo realizada pelas próprias mídias sociais não é incompatível com o ordenamento jurídico; é, sim, um interessante instrumento para combate à desinformação. É evidente que esse modelo não é único, e também não é imune a críticas, a exemplo daqueles que o consideram uma espécie de “vigilância privada” sobre o fluxo das comunicações. Todavia, a moderação realizada pelas plataformas não pode ser descartada como parte das medidas de combate à desinformação; precisa, sim, aprimorada.
Desde que passível de controle judicial, a moderação de conteúdo é um instrumento relevante para a garantia de uma esfera pública saudável e para a proteção dos direitos dos usuários das mídias sociais. É importante, nesse aspecto, que as regras sejam claras, sigam procedimentos previamente estabelecidos, garantindo aos usuários o seu conhecimento e viabilizando o direito de defesa.
A regulação de condutas humanas no âmbito da web deve perpassar e selecionar os recursos do código da rede que permitam a modelação das ações dos indivíduos no ambiente digital, afinal, não existem soluções mirabolantes que resolvam o grave problema relacionado à desinformação. Nesse aspecto, vale lembrar as lições de Lawrence Lessig sobre a regulação de condutas humanas no mundo digital. Para o referido autor, existem duas formas de regular a internet: a primeira, alterar sua arquitetura e o código da rede, já que, modificando-o, reconfigura-se também a “realidade física”, tornando possível o que era impossível; a segunda consiste em aprovar leis que para serem implementadas eficazmente levem em consideração as alterações no código48.
5 CONSIDERAÇÕES FINAIS
Como evidenciado, a moderação de conteúdo realizada pelas próprias mídias sociais não é assunto novo, mas algumas decisões judiciais e iniciativas legislativas vêm colocando em xeque instrumentos desta natureza. De modo geral, todas as plataformas possuem regras para sua utilização. Para usar uma mídia social, o usuário toma ciência dos termos de uso da aplicação e aceita as regras que regem sua participação naquele ambiente. Esses termos compõem o contrato firmado entre o usuário e a plataforma, regulando o ambiente daquele serviço de acordo com os interesses finalísticos daquela mídia social, de forma a manter o serviço mais atrativo para o maior número possível de pessoas.
Os termos de uso das aplicações, em regra, possibilitam às empresas realizarem a moderação de conteúdo e remover informações que contrariem as diretrizes de suas respectivas ferramentas e, em último caso, rescindir o contrato com o usuário através da suspensão ou até cancelamento da conta.
A democratização da comunicação de massa trazida pela internet trouxe muitos benefícios e o maior privilegiado nesse sentido foi o direito à liberdade de expressão. Ao mesmo tempo em que as mídias sociais se destacaram como palco para o exercício da liberdade, também foram e são utilizadas para propagação de desinformação organizada.
Infelizmente, a propagação de notícias falsas pela internet maximiza os efeitos da desinformação, ampliando o alcance de ideias extremistas, o que alimenta tensões políticas e sociais. Foram visíveis os efeitos nefastos da desinformação durante a pandemia de COVID-19, já que as notícias falsas prejudicaram o combate ao Coronavírus e, em momento posterior, fomentaram a invasão e depredação do Supremo Tribunal Federal, Congresso Nacional e Palácio do Planalto, no 8 de janeiro de 2023, em razão da falsa percepção de grande parte dos extremistas de que o processo eleitoral brasileiro foi objeto de fraude.
Como forma de combater a desinformação, muitas mídias sociais modificaram e recrudesceram as regras de utilização de suas plataformas, com o objetivo de impedir que suas ferramentas sejam utilizadas como plataforma de divulgação de desinformação. Todavia, esse movimento foi acompanhado de decisões judiciais e iniciativas legislativas que colocaram em xeque a moderação de conteúdo levado a efeito pelas plataformas.
Embora, à primeira vista, não pareça adequado deixar sob a responsabilidade dos provedores de aplicação a decisão pela remoção de conteúdo de suas plataformas, é de se reconhecer que a busca por alternativas regulatórias às mídias sociais - tal como a autorregulação - são formas de restringir a propagação de desinformação. Para além de evitar a hiper judicialização, essa atuação das plataformas permite fortalecer a democracia e manter uma esfera pública saudável, aberta e plural, que privilegie o exercício da cidadania.
Isso não significa, obviamente, que a moderação deva ser realizada de forma indiscriminada, tampouco que deva ser feita sem o conhecimento dos usuários. É importante que as regras sejam claras e sigam procedimentos previamente estabelecidos, permitindo o direito de defesa.
Não se ignoram as críticas no sentido de que a autorregulação pode configurar uma espécie de “privatização” sobre o fluxo das comunicações. Entretanto, a moderação não pode ser descartada como parte dos instrumentos sociais de combate à desinformação, desde que essa atividade seja passível de controle jurisdicional. A moderação de conteúdo é um instrumento relevante para a garantia de uma esfera pública sadia, devendo ser aprimorada.
Portanto, a moderação de conteúdo realizada pelas próprias mídias sociais não é incompatível com o ordenamento jurídico. Pelo contrário, o artigo 19 do Marco Civil da Internet não veda as mídias sociais de remover conteúdo sem ordem judicial, apenas estabelece um marco de responsabilidade ao provedor, delimitando o momento em que ele assume a responsabilidade pelo conteúdo, caso não o remova mesmo diante de uma ordem judicial.
A discussão acerca da possibilidade de os provedores de aplicações realizarem moderação de conteúdo parece, em verdade, há muito superada, porém, a relevância desta pesquisa reside justamente na revisão desta possibilidade diante do fenômeno da desinformação online e, acredita-se que os novos desafios atraem o debate sobre “autorregulação regulada” - forma de autorregulação que o Poder Público estabelece aos provedores um procedimento transparente, com direito de defesa, no qual podem ser reclamadas e também contestadas a adoção de medidas de controle pelos provedores. Ou seja, o debate, hoje, não consiste em saber se a autorregulação é juridicamente admitida, mas sim quais os procedimentos a ela vinculados.
Nesse contexto, nem a lei, nem a Constituição Federal parecem tolher a liberdade do provedor de remover material que viole as diretrizes de uso de sua plataforma, em especial quando se trata de desinformação.
O combate à desinformação perpassa várias medidas e a moderação é apenas uma delas. Os usuários da internet e das mídias sociais precisam diferenciar conteúdos enganosos de fatos e opiniões. Nesse sentido, a educação midiática e o investimento em educação são imprescindíveis. O usuário deve desconfiar das notícias veiculadas por fontes sem autoria conhecida e com estrutura geralmente alarmista. Na dúvida, é importante verificar se o material foi ou não divulgado por outras fontes confiáveis de informação, observando, também, se já foi analisado por veículos oficiais como sendo falso. Por outro lado, os esforços de repressão à desinformação devem se concentrar, principalmente, em identificar e punir os financiadores destas ações desinformacionais organizadas, ou seja, em ações repressivas que, em conjunto com outras medidas, contenha e previna os efeitos nefastos que as notícias falsas têm sobre toda sociedade.