Em documento publicado na quarta-feira (12), a Coalizão Direitos na Rede, da qual o Centro de Estudos da Mídia Alternativa Barão de Itararé faz parte, apresentou críticas e sugestões com a proposta apresentada pelo governo ao PL das Fake News (Projeto de Lei 2630/2020).
Leia na íntegra:
A democracia brasileira deve assumir um papel ativo na regulação das Plataformas Digitais
Brasil, 12 de Abril de 2023
Introdução
Ante a proposta de autoria do governo federal para regular plataformas digitais, apresentada como substitutivo ao Projeto de Lei 2.630/2020, e da realização de reunião do governo com entidades da sociedade civil em 03 de abril, a Coalizão Direitos na Rede (CDR) vem manifestar sua posição sobre a proposta, a fim de contribuir com o debate democrático sobre tema tão fundamental.
A CDR cumprimenta a abertura e disposição do governo para dialogar sobre o projeto após o texto vir a público. A interlocução com um leque ampliado de atores e atrizes é fundamental para construir uma proposta de regulação que abarque as distintas camadas de complexidade da regulação do ecossistema online e que efetive a necessária governança multissetorial e democrática deste âmbito.
A presente nota técnica trata de temas que a Coalizão julga prioritários para um ambiente digital sadio, plural e que preserve a liberdade de expressão em sua dimensão individual e coletiva. Não trazemos, portanto, um rol exaustivo de observações, inclusive sobre questões de suma importância que a proposta contempla, como medidas de transparência e devido processo, senão que reunimos comentários sobre pontos-chave abordados pela proposta que precisam de mais debate: a noção do dever de cuidado; o modelo regulatório e a estrutura de eventual entidade de supervisão; questões que tratam das discussões de auto-regulação; questões de privacidade, vigilância e criptografia; novos ditames de transparência, imunidade parlamentar e remuneração do jornalismo, dentre outros. Como sempre, a Coalizão se coloca à disposição para continuar contribuindo com o debate, comprometendo-se a aprofundar comentários e responder eventuais consultas.
Adicionalmente, cumprimentamos o Governo pelo conjunto de sugestões feitas ao texto e que permitem avançar pontos fundamentais para o debate como as exigências de transparência das plataformas e de anúncios, sistemas de recomendação, franqueamento do acesso aos dados das plataformas aos pesquisadores e pesquisadoras, bem como, a idéia transversal de proteção de crianças e adolescentes presente no texto.
Sumário Executivo
- 1. Disposições sobre o “Dever de cuidado”: Regras que dão poderes do Judiciário às plataformas, inclusive na análise de crimes, incentivando a retirada de conteúdos e potencializando o poder das plataformas.
- 2. Modelo regulatório e Entidade Autônoma de Supervisão: É essencial a criação de novo órgão vinculado à Administração Pública Indireta, dotado de autonomia funcional, financeira e administrativa e com participação social.
- 3. Assimetria regulatória e escopo de aplicação da lei: É necessário um mecanismo padronizado de declaração de dados relativos aos usuários e usuárias das plataformas no Brasil.
- 4. Autorregulação regulada e Auditorias externas: Falhas nas balizas da entidade autorregulatória e potencial privatização da fiscalização da norma.
- 5. Vigilantismo e riscos à criptografia: Fatores que precisam ser afastados e é necessário avançar nas normas sobre segurança.
- 6. Sanções: Medidas que precisam ser aplicadas por um órgão independente, sem prejuízo da análise do Judiciário.
- 7. O debate sobre Direitos Autorais e Remuneração do Jornalismo: Deve ser aprofundado em norma própria a fim de conter o “efeito resfriador”.
- 8. As disposições sobre Imunidade parlamentar: Criam diferentes categorias de usuários, ao conceder privilégios sem limites para políticos, que são tratados com usuários “superiores”, ainda que descumpram sistematicamente os termos de uso e a regulação.
- 9. As normas sobre transparência: Devem apontar obrigações fundamentais para a atuação das plataformas.
- 10. Termos de uso: A regulação deve balizar os termos de uso ao invés de institucionalizar os desequilíbrios de poder entre plataformas digitais e usuários.
Pontos de preocupação sobre a proposta
1. Disposições sobre o “Dever de cuidado”: Regras dão poderes do Judiciário às plataformas, inclusive na análise de crimes, incentivam a retirada de conteúdos de forma indiscriminada e potencializam o poder das plataformas
Uma das mudanças estruturais preocupantes propostas pelo governo é a possibilidade de responsabilização por violação de dever de cuidado quanto ao conteúdo de terceiros, em caso de prática ou incitação a mais de 60 tipos penais (arts. 12 e 13).
Primeiro, o texto atribui um dever de remoção sobre uma gama extensa de conteúdos, obrigando as plataformas a indevidamente exercerem função jurisdicional para averiguar se esses conteúdos seriam ou não ilícitos. Preocupa-nos ainda mais que a proposta lei admitiria que a incitação a esses variados ilícitos poderia também ensejar a remoção, tornando as hipóteses de remoção absolutamente amplas. Isso prejudica a interpretação clara, objetiva e restritiva desses ilícitos, a lógica inerente da garantia à liberdade de expressão e a interpretação de tipos penais. Em segundo lugar, esse comando pode criar uma pressão e incentivos econômicos sobre as empresas para que elas removam conteúdos em excesso, potencialmente resultando também na ampliação de remoção de conteúdo legítimos. Além de violação à reserva jurisdicional, consideramos que a potencial ameaça a direitos fundamentais de expressão e de acesso à informação é um fator significativo a respeito do texto.
Em segundo lugar, tais dispositivos possibilitam a ampliação de exceções ao regime de responsabilização de plataformas digitais por conteúdos de terceiros. Isso inverte a lógica do Marco Civil da Internet, que visou remediar a pressão por remoções abusivas que existia anteriormente. Tal regime pode e deve ser aprimorado, em especial, para reconhecer explicitamente a interpretação já existente de que há responsabilidade solidária das plataformas nos casos em que recebam pagamento e atuam em medidas de promoção publicitária dos conteúdos. Entretanto, isso não deve ocorrer de maneira a atribuir poder quase jurisdicional, especialmente em matéria criminal, às plataformas.
Em terceiro lugar, esse arranjo garante mais poderes às plataformas digitais. Somado ao poder econômico e estrutural, elas ganham o poder e, inclusive, o dever de julgar se algo é ilícito ou não, função que hoje compete ao Poder Judiciário. Ampliando ainda mais a margem de interpretações, o texto fala em conteúdos que “incitam” à prática de crimes. O conceito é muito amplo, possui significado próprio na doutrina penalista, e não deveria ser base para interpretação de conteúdos por parte das plataformas. Cabe relembrar, que esse modelo do Marco Civil é uma das escassas experiências legislativas brasileiras que atingiram repercussão global. Seu mérito vem justamente por formular um mecanismo que autoriza a moderação de conteúdo sem imunizar as plataformas de responsabilidades civis e, ao mesmo tempo, vincula a remoção de conteúdo à ordens judiciais, resguardando direitos fundamentais.
Em quarto lugar, o art. 13 carece de definição objetiva quanto ao “conjunto de esforços e medidas adotadas” que podem legitimar a responsabilização das plataformas digitais em função do descumprimento de dever de cuidado, bem como os critérios necessários para a avaliação do seu cumprimento. Assim, o texto sugerido não oferece definição para quesitos essenciais à sua aplicação, como: (a) quantidade específica de conteúdos que, quando não removidos ou moderados, podem resultar na responsabilização das empresas; ou (b) qualquer discussão sobre escala ou interesse público nos conteúdos no rol taxativo que motive a aplicação do dever de cuidado.
Em quinto lugar, a avaliação do dever de cuidado é também atribuída à “entidade autônoma de supervisão”, que ainda não conta com sinalizações ou compromisso por parte do Governo a respeito de sua criação. Entendemos que a ausência de um órgão para essa avaliação, cria uma obrigação sem supervisão e deixa o texto sem efeito, além de possibilitar a sua aplicação casuística sem balizamento técnico e feita por órgãos não especializados.
Por fim, a proposta estabelecida nos artigos sobre as obrigações de avaliação e mitigação dos riscos sistêmicos se apresenta como um caminho mais favorável e seguro à proteção dos direitos dos usuários e usuárias, na medida em que busca resolver questões estruturais e mitigar potenciais riscos dos serviços, não se limitando a temas específicos de conteúdo.
2. Modelo regulatório e Entidade Autônoma de Supervisão: é essencial a criação de novo órgão vinculado à Administração Pública Indireta, dotado de autonomia funcional, financeira e administrativa e com participação social
A proposta repassa poder excessivo às plataformas ao delegar-lhes a aplicação e a avaliação da efetividade de atividades de moderação e conteúdo. Assim, conforme colocado acima, o texto delega também às plataformas a competência de avaliar a ilegalidade de determinados tipos de conteúdos de maneira que pode acabar despriorizando a avaliação realizada por órgãos do judiciário. O cenário representa um modelo regulatório fragmentado e confuso e que prescinde de maior atenção e necessidade de coordenação entre dois tipos de conteúdos: (a) aqueles cuja retirada depende de ordens judiciais conforme descrito no art. 19 do MCI e (b) aqueles que são objeto de medidas de moderação de conteúdo implementadas em detrimento da observância do Dever de Cuidado.
A Coalizão Direitos na Rede entende que um ponto central de êxito de qualquer regulação dedicada às plataformas digitais está na criação de um órgão específico, dotado de autonomia funcional, financeira e administrativa, com mecanismos de participação multissetorial, capaz de detalhar regras, monitorar e fiscalizar o seu cumprimento e aplicar sanções em caso de violações ao que está estabelecido em leis e normas. Em se tratando de atividades sensíveis como a circulação de conteúdos na Internet, há desafios específicos para assegurar que a atuação do órgão possa ser efetiva e limite os poderes especialmente de grandes agentes de mercado, ao passo que garanta a liberdade de expressão e outros direitos dos cidadãos.
De acordo com a proposta, o Poder Executivo “poderá estabelecer uma “entidade autônoma de supervisão” (Art. 49), com o objetivo de regulamentar dispositivos da Lei, fiscalizar sua observância pelas plataformas digitais de conteúdo de terceiros, instaurar processos administrativos, dentre outras competências”. Entendemos que a redação se furta da necessidade e importância de efetivamente se criar um órgão vinculado à Administração Pública Indireta, fundamental à regulamentação dos dispositivos da Lei e à sua fiscalização. E, ainda sobre esse ponto, vale ressaltar que o Governo poderia fazê-lo enviando (i) um Projeto de Lei próprio, ou (ii) por meio da edição de Medida Provisória. A ausência de sinalização a respeito da criação da entidade autônoma de supervisão, o que se nota é a centralidade conferida pelo texto à autorregulação, cujos limites são nítidos no cenário atual.
A redação vaga e genérica da proposta abre espaço para que esse órgão “possa ser” “estabelecido” em algum órgão já existente no Executivo. E conforme mencionado no presente documento, a complexidade do tema demanda uma estrutura autônoma, participativa, multissetorial e com freios e contrapesos para evitar sua captura por agentes privados ou forças políticas específicas, em linha com os “Guidelines for regulating digital platforms: A multistakeholder approach to safeguarding freedom of expression and access to information” da UNESCO.
Entendemos que a criação de um órgão regulador é fundamental, uma vez que atualmente não existe nenhum órgão na administração pública direta ou indireta, com prerrogativas, acúmulo, capacidade ou estrutura para assumir essas atribuições.
O texto cria ainda outra instância: uma “comissão provisória destinada à elaboração de Código de Conduta de Enfrentamento à Desinformação”. O código de conduta é um instrumento relevante para estabelecer diretrizes e medidas às plataformas de cumprimento da Lei e enfrentamento aos problemas no seu interior. Em que pese a menção à supervisão deste esforço pela entidade autônoma, esta deveria ser uma atribuição do órgão regulador. Diferentemente da última redação do PL 2630, na qual o Código de Conduta era um instrumento mais amplo e dedicado à adequação dos termos de uso das plataformas ao cumprimento das diretrizes da Lei.
No entanto, a redação do Executivo restringe seu escopo ao combate à desinformação, enfraquecendo o que poderia ser um instrumento de adequação das plataformas aos dispositivos da lei e seu amplo cumprimento. Além disso, pela composição proposta, as próprias plataformas poderão estar mais representadas que todos os demais setores e até mesmo do que todos juntos. Tal hipótese faria com que as plataformas controlassem a definição dos Códigos para disciplinar a sua atuação, reforçando a privatização da regulação.
3. Assimetria regulatória e escopo de aplicação da lei: é necessário um mecanismo padronizado de declaração de dados relativos aos usuários e usuárias das plataformas no Brasil
O PL define que os seus dispositivos somente são aplicáveis às plataformas que tenham mais de 10 milhões de usuários no país (Art. 2º, inciso XIII). Em complemento ao necessário corte quantitativo, a CDR entende que seria importante prever um mecanismo padronizado de declaração e autenticação das plataformas digitais que possuem esse número de usuários e usuárias no Brasil, de modo a evitar possíveis evasões e oferecer maior clareza e segurança jurídica sobre o porte das plataformas e à necessidade de adequação à norma brasileira. Neste sentido sugere-se a inspiração no processo de enquadramento de VLOPs (Very Large Online Platforms) no Digital Services Act (DSA).
4. Autorregulação regulada e Auditorias externas: falhas nas balizas da entidade autorregulatória e potencial privatização da fiscalização da norma
O texto prevê (Art. 37) que as plataformas poderão instituir uma entidade de autorregulação, “formada pelas plataformas enquadradas” na Lei. Este ente privado controlado pelas plataformas terá atribuições importantes relativas à (i) atuação desses agentes;(ii) avaliação do dever de cuidado; (iii) a como eles moderam conteúdos que circulam dentro deles. Em especial, caberia a esse órgão, que poderá ou não ser criado, a (iv) revisão de decisões de moderação de conteúdo e contas (sendo essa última competência semelhante ao modelo do órgão criado no contexto da lei alemã (NetzDG), o Freiwillige Selbstkontrolle Multimedia-Diensteanbieter – FSM).
Mesmo com indicações no texto como a criação de uma ouvidoria “independente” e a diretriz para que seus e suas analistas sejam especializados e independentes, a minuta proposta pelo Executivo falha em apontar (i) qual seria o mecanismo de autenticação das entidades de autorregulação, (ii) requisitos mínimos que devem ser observados na sua criação, bem como (iii) sobre possíveis limites existentes em termos de números de entidades de autorregulação que podem eventualmente ser criadas.
Outra iniciativa de privatização de responsabilidades e aplicações da regulação é a previsão de uma figura não definida denominada “auditoria externa” (Art. 31), que terá atribuições sobre aspectos chave do respeito à Lei a seus dispositivos. Cabe à auditoria avaliar, pelo atual texto, por exemplo: “a) o cumprimento dos requisitos da Lei; b) o conjunto e tipo de conteúdo moderado; c) se, como e quanto a integridade da plataforma evoluiu; d) o atendimento a critério de proporcionalidade e de não-discriminação de suas decisões de moderação; e) a avaliação da existência de vieses na moderação; f) os impactos da moderação de conteúdo na disseminação de conteúdo danoso e ilícito”, entre outros. Tais disposições privatizam a fiscalização do respeito à norma, em detrimento da necessidade da criação e funcionamento de um órgão regulador independente.
5. Vigilantismo e riscos à criptografia têm que ser afastados e é necessário avançar nas normas sobre segurança
Outra área de preocupação diz respeito à segurança de dados e sistemas e à proteção de dados. Aqui, a ausência de dispositivos que proíbam a imposição e implementação de medidas que resultem na redução da segurança de seus sistemas, aliada à preocupante existência de normas, pode acabar fomentando o vigilantismo.
Em primeiro lugar, é preocupante que, na atuação redação do art. 12, o controle sobre conteúdos demandados pelas obrigações relativas ao dever de cuidado possam ser interpretadas de modo a exigir a análise dos conteúdos de comunicações privadas de usuários e usuárias de serviços de mensageria. Isso poderia pressionar as plataformas a enfraquecer ou a não implementar a criptografia em seus sistemas de mensageria, o que resultaria em prejuízo generalizado à segurança e privacidade de todos os usuários dos sistemas. Tal cenário pode acabar resultando na erosão da confiança no ambiente de mensagens – submetendo cidadãos e cidadãs à potenciais abusos por entes públicos e privados -, e afronta contra o disposto na LGPD (art. 6º, III, VII, VIII e art. 46), que recomenda que o tratamento de dados respeite os princípios da necessidade, segurança, prevenção e responsabilização e prestação de contas, bem como exige a adoção de medidas aptas a proteger os dados de incidentes de segurança.
As capacidades vigilantistas ampliadas em trechos do texto – como os artigos 36 e 57 – levantam preocupações semelhantes. A exigência, imposta pelo artigo 36, de “guarda, pelo prazo de um ano a partir da remoção ou desativação, de dados e informações que possam constituir material probatório” é demasiadamente ampla. Isso pode incentivar a retenção indiscriminada de dados pessoais, incluindo aquelas referentes a terceiros que não têm envolvimento com a conduta que suscitou a intervenção inicial pela plataforma. Como não há qualquer definição do que pode ou não constituir material de prova ou limites a tal diretriz, na prática pode ampliar a quantidade de dados que as plataformas coletam. Isso inverteria a lógica de minimização de coleta, estabelecida pela LGPD, para um incentivo à maximização de coleta e retenção,institucionalizando as plataformas como máquinas de vigilância ainda mais poderosas do que já são.
Por fim, o artigo 57 muda o Marco Civil da Internet para ampliar os poderes de requisição cautelar das autoridades a quaisquer informações de identificação dos usuários, sem especificar quais são, a quaisquer provedores de aplicação ou conexão. Isso extrapola o objeto da norma proposta, que seria dirigido apenas às redes sociais, aplicativos de mensageria privada e ferramentas de busca. Ambas as disposições (i) conflitam com os dispositivos supracitados da LGPD, (ii) carregam graves riscos de abusos pelas autoridades, além de (iii) ampliarem o risco de incidentes de segurança que podem ocasionar danos significativos aos titulares, incluindo roubo de identidade, fraude financeira, discriminação e danos reputacionais.
6. Sanções têm que ser aplicadas por um órgão independente, sem prejuízo da análise do Judiciário
Olhamos com preocupação o fato das sanções (Cap. XV) terem sido limitadas à esfera administrativa no texto do Governo. Na última versão do PL 2630, o texto criava um guia de punições de competência do Judiciário que são adequadas à realidade do tema, além de conter regras para uma aplicação justa como o escalonamento a partir da gravidade das violações. Dessa forma, em função do seu caráter administrativo, as punições sugeridas no texto do governo, ficam restritas à criação ainda incerta de um órgão que não encontra muitas definições ou acúmulo de discussões a respeito das suas competências.
Tais sanções devem ser aplicadas efetivamente somente por um órgão independente, colegiado, com competências técnicas para analisar a complexidade do ambiente digital. Além disso, consideradas todas as disposições acima destrinchadas, entendemos que a existência do órgão ou aplicação de sanções administrativas não deveria afastar análise do Judiciário, em especial no momento prévio à instituição do órgão.
7. O debate sobre Direitos Autorais e Remuneração do Jornalismo deve ser aprofundado em norma própria a fim de conter o “efeito resfriador”
O tópico da remuneração do jornalismo (art. 38 da versão GTNet) é agora tutelado pelo artigo 54 da proposta do governo, que expande sua abrangência para cobrir não só conteúdo jornalístico, mas quaisquer bens protegidos pelo direito de autor. De início, cabe apontar que essa matéria sobre remuneração autoral não deveria ser tratada como um dispositivo avulso, inserido em um norma sobre transparência e regulação de plataformas. A matéria merece debate aprofundado e norma própria.
Desde 2020, a CDR se manifesta contrariamente à regulamentação desta matéria através do PL 2630, por riscos de redução do volume de notícias em circulação e aumento da censura privada por parte das plataformas. A proposta do governo para esse tema não só deixa de resolver os problemas já apontados, mas também pode trazer consequências ainda mais danosas para a disseminação de conhecimento e cultura em território nacional.
Em primeiro lugar, a proposta deixa vaga tanto a reformulação de dispositivos-chave na lei de direito autoral quanto a estruturação das associações de gestão coletiva. O §3o do artigo 54 explicita que os titulares dos conteúdos protegidos devem exercer seus direitos por meio de associações de gestão coletiva, as quais negociarão com as plataformas os valores, modelo e prazo da remuneração. O modelo atual foi atingido após décadas de discussão e debates iniciados antes da antiga lei de direitos autorais de 1973 (Lei n. 5.988). É temerário uma mudança tão radical para o modelo de arrecadação de valores referentes à execução pública de obras, bem como a gestão desses fundos, se dar através de um único parágrafo de um artigo sem ampla participação social. A proposta não esclarece se a competência pela arrecadação será do ECAD, de uma versão expandida do Escritório (uma espécie de “super ECAD”), ou de outras entidades que ainda serão criadas para abarcar os múltiplos diferentes tipos de obras existentes. A proposta obriga os criadores de conteúdo a se associarem a essas entidades caso eles queiram ser remunerados. Uma solução aceitável se tais entidades não fossem conhecidas por problemas de transparência e de gestão mesmo após a reforma legal de 2013, a qual revelou algumas das falhas mais graves dessas associações.
Em segundo lugar, a proposta do Governo limita a possibilidade de negociação direta entre plataformas e titulares de direitos autorais e pode causar chilling effect. Aqui chamamos a atenção para uma eventual restrição à possibilidade de negociação direta entre plataformas e veículos jornalísticos, uma vez que o texto condiciona esse momento à existência de uma associação de gestão coletiva. Assim, diversos serviços online poderão acabar preferindo pela retirada de conteúdo brasileiro de suas plataformas ao invés de pagar as taxas arbitrárias sugeridas pelo governo. Vale ressaltar que a lei australiana, modelo de regulação da matéria para o Brasil e que sofre críticas por deixar os grandes conglomerados de mídia ainda mais ricos, permite esse tipo de negociação.
Recomenda-se fortemente que este debate não seja inserido no PL 2630/20, já em sua reta final de tramitação, sob risco de não só o combate à desinformação restar prejudicado, mas também o acesso aos bens culturais brasileiros ficarem em grave risco de desaparecimento por conta de um artigo que claramente precisa de mais debate e discussão pública antes de ser votado.
8. As disposições sobre Imunidade parlamentar criam diferentes categorias de usuários, tratando políticos como usuários “superiores” e privilegiados, ainda que descumpram sistematicamente os termos de uso e a regulação
A imunidade parlamentar estabelecida nas últimas versões do PL 2.630/2020 é objeto de críticas profundas por parte da Coalizão Direitos na Rede, que pede a total exclusão de tal dispositivo. A proposta do governo, com vistas a modificar esse texto, propõe que contas indicadas como institucionais pelas entidades e órgãos da Administração Pública e as contas de cidadãos eleitos para cargos no Executivo e no Legislativo nas esferas federais e estaduais recebam uma proteção maior quanto ao seu perfil e não seus conteúdos. Assim, as plataformas podem moderar normalmente os conteúdos dessas contas, mas não podem suspender ou bloquear os perfis, salvo se por mandado judicial ou por 7 dias em casos de violações recorrentes.
Ainda que a proposta do Governo torne mais objetivo o que é permitido ou não às contas de interesse público, o texto é considerado insuficiente. Ele cria a existência de usuários “superiores”, sobre os quais os termos de uso e políticas de moderação recaem de maneira privilegiada em relação aos usuários e usuárias comuns. Além disso, a divulgação de discurso de ódio e desinformação, é muitas vezes disseminada por agentes do poder público, sendo ilógico argumentar que tais contas estariam protegidas por alegado interesse público quando perpetuam tais tipos de conteúdo.
9. As normas sobre transparência devem apontar obrigações fundamentais para a atuação das plataformas
Elogiamos as medidas propostas quanto aos requisitos de transparência na atuação das plataformas digitais e seus sistemas automatizados, iniciativa que julgamos oportuna e necessária. Os capítulos que englobam os artigos 20 a 28 prescrevem a divulgação de relatórios semestrais com dados sobre (i) algoritmos de recomendação, (ii) medidas tomadas para eliminar atividades criminosas, assim como (iii) um repositório de publicidade para usuários, entre outras informações.
Além disso, o artigo 29 aborda a obrigação das plataformas viabilizarem acesso gratuito a dados desagregados sobre seu funcionamento para fins de pesquisa acadêmica, medida fundamental para promover a realização de estudos sobre suas métricas, a circulação do discurso e impactos à liberdade de expressão.
10. Termos de uso: A regulação deve balizar os termos de uso, não institucionalizar os desequilíbrios de poder entre plataformas digitais e usuários e usuárias
Atualmente, regras a respeito de governança de conteúdos e moderação são estabelecidas em Termos de Uso elaborados de forma unilateral pelas plataformas e posteriormente impostos aos usuários e usuárias. Por meio deles, as plataformas chegam a definir o que pode ou não circular nas redes – fato que legitima ações de moderação, inclusive remoção de conteúdos. Tais termos assumem, pois, feição regulatória, ao dispor de regras e diretrizes que determinam o funcionamento do espaço e as ações que podem ou não ser desenvolvidas neles – a partir do exercício de medidas de autorregulação das próprias plataformas digitais.
Há, portanto, a necessidade de se buscar um equilíbrio entre a organização do espaço a partir de um agente privado e o caráter público, abrangente, dessa tomada de decisão. Nesse sentido, o documento “Contribuições para uma regulação democrática das grandes plataformas que garanta a liberdade de expressão na internet”, propõe que “os termos de serviços não devem conceder poder ilimitado e discricionário às plataformas para determinar a idoneidade do conteúdo gerado pelo usuário”.
Em sentido contrário à preocupação de fomentar discussões e decisões coletivas sobre os Termos de Uso das plataformas, no artigo 5° da proposta do Executivo, consta que as plataformas devem, entre outras atribuições, “III – prever que conteúdo ilícito ou incompatível com os seus termos e políticas de uso e os usuários autores estarão sujeitos a medidas de moderação, inclusive suspensão, cessação ou outra restrição a remuneração ou pagamentos monetários; IV – prever a suspensão gradual, proporcional e por período razoável a prestação dos seus serviços aos usuários que publicam com frequência conteúdos manifestamente ilegais, observadas as obrigações de procedimento previstas no art. 9”. Dessa forma, a proposta do Executivo acaba conferindo maior poder às plataformas.
Uma futura regulação de plataformas, pelo contrário, deve buscar a inclusão de construção de políticas e regras por meio de diálogos constantes entre plataformas e órgão regulador, fornecendo balizas para os termos de serviços e que não se conceda poder ilimitado e discricionário às plataformas para determinar a idoneidade do conteúdo gerado pelo usuário.
Conclusão
Conforme mencionado em posicionamentos anteriores do coletivo, entendemos que o debate merece a urgência e atenção de todos os setores da sociedade brasileira. No entanto, a importação de dispositivos de leis europeias, sem o exercício de adequação ao ordenamento jurídico brasileiro e cujo objetivo não leva em consideração a centralidade e relevância do Marco Civil da Internet para a consolidação de um modelo brasileiro de responsabilidade de intermediários é preocupante. Pensar na adoção de modelos de sucesso é importante e necessário, mas ela não pode ser feita às custas dos direitos dos usuários da Internet no Brasil.
A Coalizão Direitos na Rede apresentou, portanto, pontos prioritários para o debate em relação ao texto divulgado pelo Governo Federal, relativos ao PL 2630. A CDR se compromete a apresentar pontos adicionais de proposição objetiva de complementação do dito projeto e se coloca à disposição para diálogos em prol da construção de um ambiente digital sadio e plural condicionado por uma regulação democrática e multissetorial.
***
A Coalizão Direitos na Rede (CDR) é uma rede de entidades que reúne mais de 50 organizações acadêmicas e da sociedade civil em defesa dos direitos digitais, tendo como temas principais de atuação a questão do acesso à Internet e a proteção dos direitos à liberdade de expressão, proteção de dados pessoais e privacidade na rede.