O Plenário do Supremo Tribunal Federal retomou nesta quarta-feira (18/12) o julgamento que discute a constitucionalidade do artigo 19 do Marco Civil da Internet (MCI) e a possibilidade de as plataformas digitais serem responsabilizadas por conteúdos de usuários.
O presidente da corte, ministro Luís Roberto Barroso, divergiu parcialmente dos votos apresentados pelos ministros Dias Toffoli e Luiz Fux, relatores dos dois casos julgados pelo Supremo.
Ao contrário dos relatores, Barroso entendeu que não pode haver responsabilidade objetiva das redes por conteúdos de terceiros, mas propôs dois modelos de responsabilização. Ele também entendeu que o artigo 19 é parcialmente inconstitucional porque não defende adequadamente direitos fundamentais.
O tribunal analisa conjuntamente duas ações. No Recurso Extraordinário 1.037.396 (Tema 987 da repercussão geral, com relatoria de Toffoli), é discutida a constitucionalidade do artigo 19 do Marco Civil da Internet. Ele exige o descumprimento de ordem judicial de exclusão de conteúdo para a responsabilização do provedor pelos danos decorrentes de atos praticados por terceiros — ou seja, as publicações feitas por usuários. O caso concreto é o de um perfil falso criado no Facebook.
Já no Recurso Extraordinário 1.057.258 (Tema 533 da repercussão geral, com relatoria do ministro Luiz Fux), é discutida a responsabilidade de provedores de aplicativos e ferramentas de internet pelo conteúdo publicado por usuários, assim como a possibilidade de remoção de conteúdos ilícitos a partir de notificações extrajudiciais. O caso trata de decisão que obrigou o Google a apagar uma comunidade do Orkut.
Após o voto de Barroso, o ministro André Mendonça pediu vista. O caso será retomado só depois do recesso do Judiciário, que vai até 31 de janeiro. Até o momento, apenas Barroso, Toffoli e Fux votaram.
Divergência
Barroso votou pela inconstitucionalidade parcial do artigo 19 do Marco Civil da Internet. Para ele, a sistemática do artigo 21 deve ser ampliada — esse dispositivo estabelece que a divulgação não autorizada de conteúdos sexuais e de nudez não precisa de ordem judicial de retirada, bastando a notificação extrajudicial.
O presidente do Supremo propôs dois modelos de responsabilização. O primeiro deles trata de conteúdos específicos, e a notificação extrajudicial é a regra para crimes em geral. Nesses casos, a plataforma pode ser responsabilizada por não retirar conteúdos após ser notificada.
Ele colocou como exceções, no entanto, os crimes contra a honra, em que a sistemática adotada deve continuar sendo a do artigo 19, em que só pode haver responsabilização se houver descumprimento de ordem judicial pelas plataformas.
“Não há fundamento constitucional para um regime que incentive que as plataformas permaneçam inertes após tomarem conhecimento de violações às leis penais, o que inclui a criação de perfil falso para causar dano.”
Já o segundo modelo de responsabilização leva em conta o chamado “dever de cuidado”, em contraposição à responsabilidade objetiva proposta por Toffoli. No dever de cuidado, as plataformas ficam obrigadas a empenhar todos os esforços para prevenir e mitigar riscos sistêmicos criados ou potencializados nas redes sociais.
“Os provedores têm o dever de cuidado de mitigar os riscos sistêmicos criados ou potencializados por suas plataformas. Tal dever se materializa em medidas para minimizar esses riscos e seus impactos negativos sobre direitos individuais, coletivos, segurança e estabilidade democrática.”
Dessa forma, prosseguiu Barroso, as plataformas devem atuar proativamente, de ofício, para que seus ambientes estejam livres de conteúdos “gravemente nocivos”, em especial no que se refere a pornografia infantil; crimes graves contra crianças ou adolescentes; induzimento, instigação ou auxílio ao suicídio ou à automutilação; tráfico de pessoas; atos de terrorismo; e abolição violenta do Estado democrático de Direito e golpe de Estado.
A responsabilização em casos como esses pressupõe uma falha sistêmica, e não a ausência de remoção de um conteúdo específico, disse Barroso.
Para medir a correta aplicação do dever de cuidado pelas empresas, o ministro determinou que as plataformas com mais de dez milhões de usuários publiquem anualmente relatórios de transparência que respeitem os mesmos padrões e exigências previstos no Digital Services Act, pacote legislativo europeu sobre serviços digitais.
O relatório deve conter dados sobre conteúdos ilícitos retirados e o tempo médio de tomada de providência pelas plataformas. Erros sistêmicos cometidos pela empresa ao retirar os conteúdos podem ser utilizados em ações de responsabilização, inclusive por dano moral coletivo.
Por fim, o ministro determinou que há responsabilidade das plataformas, independentemente de notificação, nos casos de anúncios e de todos os tipos de impulsionamento de conteúdos criminosos.
Toffoli
Toffoli foi o primeiro a votar. Ele propôs a inconstitucionalidade do artigo 19 e a adoção da sistemática do artigo 21 como marco para a responsabilização das redes quanto a conteúdos “ilícitos” ou “ofensivos”. Ou seja, as redes poderiam ser responsabilizadas nos casos em que não tomaram providências após o recebimento de notificação extrajudicial.
O ministro propôs um rol taxativo de conteúdos que levarão à responsabilidade civil objetiva das plataformas caso o material não seja excluído por elas mesmas, independentemente de notificação extrajudicial ou decisão judicial determinando a exclusão.
O rol proposto pelo magistrado foi o seguinte:
1) Crimes contra o Estado democrático de Direito;
2) Atos de terrorismo ou preparatórios de terrorismo;
3) Crime de induzimento, instigação ou auxílio ao suicídio ou automutilação;
4) Racismo;
5) Violência contra criança, adolescentes e vulneráveis de modo geral;
6) Qualquer espécie de violação contra a mulher;
7) Infração sanitária, por deixar de executar, dificultar ou opor-se à execução de medida sanitária em situação de emergência em saúde pública;
8) Tráfico de pessoas;
9) Incitação ou ameaça da prática de violência física ou sexual;
10) Divulgação de fatos notoriamente inverídicos ou gravemente descontextualizados que levem à incitação à violência física, à ameaça contra a vida ou a atos de violência contra grupos ou membros de grupos socialmente vulneráveis; e
11) Divulgação de fatos notoriamente inverídicos ou gravemente descontextualizados com potencial para causar danos ao equilíbrio do pleito ou integridade do processo eleitoral.
Fux
Fux foi o segundo a votar. Ele é relator do caso que trata da negativa do Google de excluir uma comunidade da finada rede social Orkut contra uma professora. Por isso, a empresa foi condenada, mas recorreu ao Supremo.
O ministro apontou que, embora o Marco Civil da Internet não existisse à época da condenação, a Constituição Federal já protegia a vida privada, a imagem e a honra das pessoas. Segundo ele, a liberdade de expressão não legitima a ridicularização de indivíduos.
Para Fux, a degradação de pessoas é interessante para as big techs, pois ajuda publicações a viralizar. Com isso, mais anúncios são vinculados e as empresas lucram mais.
De acordo com o ministro, as redes sociais devem excluir postagens ilícitas assim que tiverem ciência delas, sem aguardarem ordem judicial. E podem ser responsabilizadas se não o fizerem.
O magistrado destacou a gravidade de casos em que postagens ofensivas são impulsionadas mediante pagamento. “É presumido de modo absoluto o efetivo conhecimento da ilicitude por parte da empresa provedora de aplicações nesses casos”, afirmou ele. “Foi pago, é ilícito e presume-se que ela sabia. Não precisa nem notificar.”
Além disso, disse Fux, as empresas de tecnologia devem ativamente monitorar — e excluir — publicações claramente ilícitas, que contenham discurso de ódio, racismo, pedofilia, incitação à violência ou apologia a golpe de Estado.
Fonte: www.conjur.com.br
Todos os direitos reservados
MPM Sites e Sistemas - CNPJ: 12.403.968/0001-48