Translate
Seguidores
NOTA TÉCNICA: sobre problemas centrais da Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet (PL 2630/2020)
Nota técnica da Coalizão Direitos na Rede sobre problemas centrais do PL 2630/2020 (Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet).
*por
Coalizão Direitos na Rede
No presente documento, a Coalizão Direitos na Rede – que reúne 38 organizações de pesquisa e defesa de direitos digitais, da liberdade de expressão e direitos do consumidor – apresenta suas preocupações sobre o PL 2630/2020, em tramitação no Senado Federal, sugerindo alterações no texto para mitigá-los.
Conforme
posicionamento divulgado anteriormente, a CDR entende que o tema merece um
debate ampliado de modo a evitar erros inevitáveis em um processo açodado.
Entretanto, diante da perspectiva de votação da matéria no Senado nos próximos
dias, apresentamos nossa avaliação sobre o projeto e mudanças que consideramos
necessárias para que a eventual lei não viole direitos fundamentais. Elas se
concentram em quatro pontos do PL: 1) regime de responsabilização das
plataformas, 2) definições, 3) devido processo e 4) mecanismos de
transparência.
1.
REGIME DE RESPONSABILIZAÇÃO DAS PLATAFORMAS
PROBLEMAS
Mesmo
sem mencionar, o PL altera o regime de responsabilidade para plataformas
intermediárias por danos gerados por conteúdos produzidos por terceiros,
previsto no Marco Civil da Internet (Lei 12.965, de 2014). A alteração se dá
uma vez que a proposição cria obrigações aos provedores de aplicações – como o
bloqueio/exclusão de contas inautênticas, de disseminadores artificiais e de
redes de disseminação artificial – a partir da análise do conteúdo produzido
por terceiros que elas distribuem. Ao listar conteúdos e práticas vedadas,
estabelecer obrigações quanto à fiscalização e remoção dos mesmos e elencar
sanções caso tais medidas não sejam cumpridas pelas companhias, o PL 2630/2020,
contrariando o Marco Civil da Internet, responsabiliza na prática as
plataformas por esses conteúdos.
A
imposição dessas obrigações torna-se ainda mais problemática diante dos
conceitos adotados pela lei (ver detalhes no item seguinte). Entendemos, assim,
que seria necessário promover mudanças nos conceitos e centrar as obrigações
dos provedores de aplicações a restrições de condutas das contas, e não a seus
conteúdos.
Vale
reforçar que, para ser minimamente possível classificar conteúdo como “desinformação”,
há que se reconhecer a necessidade de análise humana, contextualizada, embasada
em pesquisas e fontes diversas. Mesmo após uma análise minuciosa, resta um
espaço amplo para variáveis de interpretação dos fatos. Diante da possibilidade
de responsabilização das plataformas por analisar o tipo de conteúdo
disseminado por cada conta, é provável que as empresas lancem mão de moderação
exagerada e automação, o que não está vedado pelas propostas, de forma a
aumentar exponencialmente a chance de equívocos e cerceamento do exercício
legítimo da liberdade de expressão. O texto não traz sequer a previsão de que
denúncia prévia para a análise dos conteúdos, criando um regime de
monitoramento e derrubada em massa de conteúdo pelas plataformas.
ALTERNATIVAS
Para
que o projeto não estabeleça um regime de responsabilização que incentive a
censura privada pelas plataformas, incorrendo em altos riscos à liberdade de
expressão, a CDR propõe retirar do rol de vedações as “contas inautênticas” e
as “redes de disseminação artificial” tal como formuladas no texto. E, em vez
de se falar em “disseminadores artificiais”, prever a vedação a “contas
automatizadas não rotuladas”, de modo a coibir robôs (bots) não identificados
enquanto tais.
O Art.
9o, que trata das obrigações impostas às plataformas no combate à
desinformação, também impacta neste regime de responsabilidade. Assim,
consideramos que o texto deveria ser alterado para determinar a abertura de
canais para o recebimento de denúncias e o encaminhamento dessas denúncias a
verificadores independentes de fatos.
No
mesmo sentido, a lei deveria determinar a elaboração de um código de conduta
para o setor, construído a partir de um debate multisetorial coordenado pelo
Comitê Gestor da Internet no Brasil (CGI.br). Por ser o CGI.br o órgão
competente para a elaboração de recomendações sobre políticas de Internet no
país, entendemos que a definição de medidas específicas para os provedores de
aplicação voltadas ao objeto da proposta encontraria em sua estrutura um ambiente
técnico e qualificado de desenvolvimento.
Da
mesma maneira, caberia a adoção de um código de boas práticas em relação à
atividade dos checadores de fatos, medida imprescindível para garantir a
independência e transparência dos atores no exercício da sua atividade,
evitando, ao mesmo tempo, que a regulação acabe por restringir a atuação destes
agentes.
JUSTIFICATIVA
Avaliamos
que o modelo inicialmente proposto pelo Projeto de Lei pode ser insuficiente ou
gerar uma moderação de conteúdos ainda mais proativa do que já fazem as
plataformas. Diante do risco de responsabilização, essas empresas provavelmente
optarão por remover mais conteúdos, inevitavelmente incidindo na prática de
bloqueio excessivo (overblocking), como ocorre em países que adotaram
este regime de responsabilização. Embora seja correta a crítica acerca do poder
crescente das plataformas e seus preocupantes impactos no debate público e em
processos eleitorais, a solução proposta acaba por ampliar esse poder, fazendo
que as plataformas tratem como obrigação a regra a gestão e remoção de
conteúdos, atingindo a liberdade de expressão.
O
desenvolvimento de códigos de conduta ou boas práticas dedicadas ao
enfrentamento da desinformação vem sendo adotado em várias democracias. A Comissão Europeia tem, desde outubro de
2018, incentivado prática semelhante e anunciado um alto nível de participação
das plataformas nos esforços, com empresas como Facebook e Google já com seus
próprios códigos reconhecidos pela Comissão.
Em
função disso, reconhecendo o papel de órgão técnico a quem compete a elaboração
de recomendações a respeito de políticas de Internet no Brasil, conferido ao
CGI.br pelo Marco Civil da Internet, entendemos que o papel de coordenador do
processo de elaboração e assinatura dos respectivos códigos de conduta e boas
práticas, em diálogo com os atores envolvidos nas medidas, deveria ser
conferido ao Comitê Gestor da Internet.
2.
DEFINIÇÕES E CONCEITOS
PROBLEMAS
O PL
2630/2020 traz conceitos problemáticos e vagos, como “conta inautêntica” e
“disseminadores artificiais”, cuja redação pode ensejar riscos à liberdade de
expressão e aos direitos fundamentais dos cidadãos. Além disso, inclui redações
que, por essas mesmas preocupações, merecem aperfeiçoamento, como é o caso da
definição de “desinformação”, “conteúdo patrocinado” e “verificadores
independentes”.
ALTERNATIVAS
Uma
nova versão do PL deveria excluir o conceito de “conta inautêntica”. A
preocupação com os chamados “bots” deveria ser resolvida com a criação
de uma definição de “contas automatizadas” entendidas como aquelas “geridas por
qualquer programa de computador, tecnologia ou tecnologias empregadas para
simular, substituir ou facilitar atividades de humanos na distribuição de
conteúdo em aplicações de internet”. Este conceito é mais adequado do que a
figura dos “disseminadores artificiais”.
Já o
conceito de “conteúdo patrocinado” deveria dar lugar à previsão de dois
conceitos diferentes: “impulsionamento” e “publicidade”. O primeiro seria
definido como “ampliação de alcance de conteúdos mediante pagamento pecuniário
ou valor estimável em dinheiro à empresa enquadrada no artigo 1º desta lei”, enquanto
o segundo consistiria em “mensagens publicitárias veiculadas em troca de
pagamento pecuniário ou valor estimável em dinheiro pelas empresas enquadrada
no artigo 1º desta lei”.
Para
coibir abusos diante de análises subjetivas, o conceito de desinformação
deveria: “conteúdo, em parte ou no todo, inequivocamente falso, forjado e
divulgado para enganar deliberadamente o público e, cumulativamente, com
potencial de causar danos individuais e coletivos ou prejuízo a direitos
fundamentais, ressalvado o erro jornalístico, o ânimo humorístico ou de
paródia”. Já os verificadores independentes deveriam seriam caracterizados como
“pessoa jurídica que realiza uma verificação criteriosa de fatos de acordo com
os parâmetros e princípios desta Lei, que não possua vínculo societário ou
dependa financeiramente das pessoas jurídicas estabelecidas no art. 1º e
daquelas cuja produção de conteúdo se proponha verificar”, de modo a garantir
real autonomia aos agentes que desempenharão análise tão significativa.
JUSTIFICATIVA
A
proposta em questão trata de tema chave para as democracias contemporâneas e
impacta direitos fundamentais, cuja preservação se faz mais necessária do que
nunca no atual cenário político. A boa prática legislativa considera que o
legislador deve apenas excepcionalmente inserir novas definições no texto da
lei, priorizando conceitos largamente estabelecidos na prática jurídica. Neste
sentido, as definições devem se restringir às necessárias concretas, e suas
redações precisam delimitar de maneira clara qualquer interpretação, evitando
abordagens amplas e que abram margem para discricionariedade no âmbito da
fiscalização e eventuais sanções relacionadas a tais conceitos.
A
caracterização nuclear do PL é a de “desinformação”, tarefa complexa
reconhecida em todos os debates regulatórios sobre o tema. Pela dificuldade de
diferenciar verdades de mentiras, a conceituação deve trabalhar apenas com o
que é “inequivocamente falso”, devendo abster-se de abrir espaço para
subjetividade, como prever conteúdo “enganoso” ou “colocado fora do contexto”
ou “manipulado”. Já a figura de “conta inautêntica” combina um comportamento
com o tipo de conteúdo disseminado. Nesta formulação, caberia à plataforma a
avaliação de qual conta foi criada “com o propósito de disseminar desinformação”,
conferindo a essas empresas a prerrogativa de julgar o que é verdade e o que
não é, ampliando seu poder em vez de balanceá-lo.
Ainda
sobre a definição de desinformação, vale ponderar que o tema é um problema
multifacetado e que ainda não foi introduzido de maneira clara ao ordenamento
jurídico brasileiro. Conteúdos percebidos como ‘fake news’ podem ser
confundidos com hipóteses já tratadas em leis brasileiras como os crimes contra
a honra – calúnia, injúria e difamação; gerar eventuais reparações cíveis por
danos causados a personalidade; ou serem confundidos com a veiculação de
conteúdos de baixa qualidade informativa. Em função disso, é importante que o
Projeto de Lei em questão defina, em termos claros, qual o conteúdo abarcado
por essa conceituação, a fim de evitar confusões e interpretações abusivas por
parte das plataformas ou até resultar em restrições à liberdade de expressão e
o livre fluxo de ideias na internet.
No
caso dos verificadores independentes, a garantia da qualidade de
“independência” passa por estipular que estes não possuam vínculos acionários
ou recebam recursos tanto das redes sociais reguladas quanto daqueles
produtores de conteúdo que se proponham a checar, uma vez que a vinculação com
estes dois tipos de agentes pode pôr em suspeição este trabalho. A definição
deve prever espaço, entretanto, para a remuneração por serviços prestados às
plataformas.
A
elaboração de “disseminadores artificiais” também apresenta uma redação
confusa, apontando como problemático o emprego de qualquer tipo de tecnologia
de apoio em plataformas digitais. Por isso, cabe aqui sua substituição pela
conceituação de “contas automatizadas”, que permitirá separar aquelas utilizadas
para fins legítimos e necessários das implantadas com objetivos maliciosos de
causar ano. Na proposta, a diferenciação se dá pela identificação destas, de
modo a trazer transparência no debate público, e pela vedação daquelas não
sinalizadas enquanto tal.
Ainda
na parte das definições, o projeto adentra a temática de conteúdos pagos
optando pelo conceito de “conteúdo patrocinado”. A elaboração reúne diferentes
tipos de modalidades pagas, razão pela qual o PL deveria separá-las na figura
do “impulsionamento” (custeio à plataforma da ampliação do alcance) e da
“publicidade” (anúncios), de modo a deixar claro qual tipo de conteúdo é
tratado nas seções de vedações e obrigações das plataformas.
3.
DEVIDO PROCESSO
PROBLEMAS
Atualmente
os provedores de aplicações mantêm modelos bastante insuficientes de
comunicação com os usuários quanto (i) às medidas de moderação aplicadas aos
seus conteúdos e contas e (2) quanto ao conteúdo que os usuários notificam como
violador das regras da comunidade. No segundo caso, o usuário não tem qualquer
retorno ou direito ao acompanhamento do caso. Ainda que se disponha a enfrentar
a ausência de um devido processo e direito à contestação no atual funcionamento
das plataformas, ele peca por uma redação confusa, vaga quanto aos procedimentos
obrigatórios e não aponta medidas de contestação prévias neste processo de
moderação de conteúdo por denúncia de desinformação.
ALTERNATIVAS
É
fundamental estabelecer que, imediatamente após o início de um processo de
análise de conteúdo ou conta, o usuário responsável seja comunicado pelo
provedor de aplicações. A comunicação primeira deve informar a fundamentação
para a análise e qual a fonte do questionamento, se processo de autodetecção da
plataforma ou denúncia de terceiros, e formas de contestação. O usuário deve
então ter tempo hábil para reagir à fundamentação, necessariamente informada,
de forma a refutar a necessidade de aplicação de qualquer medida. Deve ainda
ter a opção de apagar/corrigir o post.
Ainda,
a fim de coibir vieses e erros, a verificação de fatos deve ser sempre
realizada por pessoa natural, e prever análise por ao menos dois verificadores
independentes, que devem levar em consideração a contestação inicial do usuário
responsável pelo conteúdo ou conta em seu processo de análise.
Para
assegurar o direito à reparação, previsto nas normas internacionais de direitos
humanos, em caso de identificado equívoco na aplicação de medidas de moderação
de conteúdo ou de intervenção em conta, caberá ao provedor de aplicação de Internet
reparar o dano, informando o erro de maneira destacada e garantindo a exposição
da correção no mínimo aos usuários inicialmente alcançados.
Para
fins de assegurar o direito à Justiça, em casos de encaminhamento do caso para
o Poder Judiciário, as medidas adotadas pelos provedores de aplicação de
Internet devem ficar restritas ao determinado no curso do processo judicial. E,
para assegurar o direito à informação e fortalecer a transparência, em casos de
decisão judicial relativa a processos de análise decorrentes dessa lei, o
provedor de aplicações de internet deverá substituir o conteúdo ou conta
tornados indisponíveis pela exibição da ordem judicial que deu fundamento à
indisponibilização, ressalvado o segredo de Justiça.
JUSTIFICATIVA
A
Coalizão Direitos na Rede entende que qualquer processo de restrição à
liberdade de expressão, mesmo em ambiente privado, deve preservar o direito à
informação e à contestação. E, em qualquer processo de “litigância”, o sistema
de Justiça deve ser o fiel da balança, de forma que, diante de análise em curso
pelo Judiciário, os provedores de aplicação devem abster-se de aplicar medidas
em conteúdos e em contas por disposições desta lei. Também por observar a
legitimidade de decisões judiciais e a importância de dar conhecimento acerca
de decisão, é fundamental o estabelecimento da divulgação, em conta ou conteúdo
objeto de análise judicial, da sentença e sua determinação.
Mas,
para que de fato as redes sociais sejam responsáveis por seus atos e atuem de
forma transparente, durante os procedimentos de moderação de conteúdo no seu
interior, é de suma importância o estabelecimento de mecanismos que assegurem a
notificação do usuário caso este seja objeto de alguma denúncia ou medida. A
ausência de tais obrigações reforça o desequilíbrio de poder dessas empresas
sobre seus usuários, promovendo um ambiente de gestão privada e discricionária
do debate público.
Essas
garantias devem ser fornecidas sobretudo nos processos de moderação de
conteúdos de que trata essa lei. Diante das já apontadas complexidades acerca
da classificação de uma mensagem como desinformativa, há altas chances de
erros, razão pela qual faz-se fundamental assegurar ao usuário objeto da
avaliação a oportunidade de explicação e contraposição antes da adoção de
qualquer providência.
4.
TRANSPARÊNCIA DAS PLATAFORMAS
PROBLEMAS
O
projeto foi anunciado por seus autores como uma “Lei da Liberdade,
Responsabilidade e Transparência” na Internet. É um mérito da matéria fixar
mecanismos de publicidade de informações por redes sociais. Contudo, os
dispositivos previstos são limitados, devendo ser expandidos. O mesmo vale para
os artigos relacionados à transparência em conteúdos patrocinados. Outra
mudança adequada é a retirada de conceitos problemáticos dos deveres de
transparência (ver item 2).
ALTERNATIVAS
A CDR
propõe um ajuste da seção, em um modelo marcado pela exigência de produção e
veiculação de relatórios trimestrais (em vez de semestrais), informando
procedimentos e decisões de tratamento de conteúdos gerados por terceiros, bem
como as medidas para o cumprimento da Lei. Estes documentos devem conter: 1)
número de usuários, 2) número de medidas adotadas em função dos próprios termos
de uso das plataformas, 3) medidas de moderação de conteúdo com a finalidade de
cumprimento da Lei e de ordem judicial, 4) número de contas automatizadas,
redes de distribuição artificial, conteúdos impulsionados e publicidades não
identificados, 5) políticas de moderação de conteúdo aprovadas e alteradas, 6)
características da equipe responsável pela análise de conteúdo e 7) dados sobre
a interação com conteúdos classificados como desinformação.
Cabe
às redes socais e aplicações de mensageria privada facilitar, também, o acesso
a dados desagregados a instituições de pesquisa. No tocante aos conteúdos
impulsionados e publicidades, deve haver rotulação que identifique essas
modalidades de conteúdo enquanto tais, além de informações sobre o responsável
pelo pagamento e informações de contato sobre este. Em se tratando de
propaganda eleitoral ou de conteúdos que mencionem candidato, coligação ou
partido, devem ser disponibilizadas também informações sobre o valor gasto, o
tempo de veiculação e as características da população utilizadas para a
segmentação. Além disso, devem recair deveres de transparência aos
verificadores independentes, como a divulgação de relatórios sobre suas fontes
de financiamento.
JUSTIFICATIVA
A
Coalizão Direitos na Rede compreende que o combate à desinformação não será bem-sucedido
implantando um ambiente legal de fomento à censura privada. Mas, ao contrário,
com mais obrigações de transparência, de modo a colocar essas plataformas sob
escrutínio públicos dos cidadãos, autoridades, entidades da sociedade civil e
pesquisadores. É esse cenário que pode fomentar uma cultura de fiscalização
para reduzir a discricionariedade das plataformas e os mecanismos de
amplificação da desinformação.
É com
esta preocupação em mente que a CDR propõe a ampliação das exigências de
transparência às plataformas. Dada a relevância como espaço de debate público
que essas empresas assumiram, elas precisam divulgar de forma detalhada suas
medidas de moderação de conteúdo, sejam estas a partir de seus termos de uso,
das novas obrigações geradas por esta lei ou de decisão judicial. Somente este
tipo de informação permite aferir a evolução do combate a mensagens falsas.
Especificamente sobre desinformação, é necessário não apenas expor dados
genéricos, mas de interação dos usuários com estes conteúdos, de modo a
permitir uma avaliação precisa da dinâmica deste fenômeno em cada rede. Mais do
que isso, a “responsabilidade e transparência” na Internet passa pelo
conhecimento também das ações de moderação de conteúdo sobre outras práticas,
como discurso de ódio, conteúdo violento e consequências de medidas judiciais.
Tão
relevante quanto é a transparência nos conteúdos impulsionados e mensagens
publicitárias. Tais informações são vitais para compreender quem financia a
difusão de conteúdo e mapear redes de impulsionamento de desinformação. Esses
registros são insumos relevantes à ação de autoridades de investigação para
combater ilícitos nesta modalidade de mensagem, especialmente durante pleitos
eleitorais.
Considerando
a análise acima exposta, a Coalizão Direitos na Rede recomenda aos
parlamentares as emendas apresentadas neste PDF, sem as quais, acreditamos, o
projeto incorrerá na violação de direitos fundamentais. Colocamo-nos desde já à disposição para
quaisquer esclarecimentos necessários e para o diálogo em torno de nossas
propostas.
29 de maio de 2020.
0 comments :
Postar um comentário