Responsabilidade civil e plataformas digitais: panorama geral e cenário brasileiro.

  • Em 14 de abril de 2023

Para a definição da responsabilidade civil das big techs[1], necessário se faz, inicialmente, conhecer a natureza jurídica dos serviços por elas prestados.

Há discussão mundial se elas deveriam ser consideradas plataformas neutras (meras distribuidoras de conteúdo, sem responsabilidade por ele) ou publisher[2], com o dever de realizar algum tipo de moderação do conteúdo.

Sobre o tema, historicamente, nos Estados Unidos, houve disposição legal conhecida como Seção 230, criada em 1996 quando a discussão sobre a internet ainda era incipiente.

Esta seção faz parte da chamada Lei de Decência nas Comunicações (Communications Decency Act) e garante que os provedores de serviços de internet desfrutem de imunidade legal pelo conteúdo que publicam, pois não poderiam ser considerados como “porta-vozes” ou “editores” do que é publicado por terceiros.

Há defensores desta normatização, como por exemplo Donald Trump, porém, vai de encontro à segurança nas relações digitais que mundialmente se persegue.

Hoje, há 19 projetos de alteração desta Seção 230: alguns propõe seu banimento e outros, menos radicais, propõem alteração, no sentido de que haja algum tipo de moderação destas plataformas.

A bem da verdade, esta moderação já é realizada pelas big techs, medida autorizada pelo próprio usuário ao concordar com os termos e condições de uso ao baixar o aplicativo.

A Meta, empresa detentora do Facebook, imbuída do intuito de propiciar um ambiente mais seguro nas redes sociais, criou em 2019 um Comitê de Supervisão (Oversight Board), composto por 19 membros do mundo inteiro e que propõe a discussão de temas: o que remover, o que permitir e por quê.

Um caso emblemático decidido por este comitê[3] ocorreu em outubro de 2020, quando um usuário brasileiro denunciou uma foto no Instagram com título em português, indicando que o objetivo era aumentar a conscientização sobre sinais do câncer de mama. A imagem era rosa, remetendo a “outubro rosa”, uma campanha internacional para aumentar a conscientização sobre a doença. Oito fotos da imagem mostravam sintomas do câncer de mama com as respectivas descrições. Cinco delas incluíam mamilos femininos visíveis e descobertos, enquanto as três fotografias restantes incluíam seios femininos, com os mamilos não enquadrados na imagem ou cobertos por uma mão. A publicação foi removida por um sistema automatizado, aplicando o Padrão da Comunidade sobre Nudez Adulta e Atividade Sexual do Facebook. Após o Conselho ter selecionado o caso, o Facebook determinou que foi um erro e restaurou a publicação.

A ocorrência deste episódio alerta sobre a necessidade de avaliação mais aprofundada de publicações ditas como ofensivas, pois a retirada automática desta publicação limitou a finalidade social e de conscientização da campanha, o que não deve ocorrer.

Há, no mundo, três modelos de responsabilidade quando se trata das big techs.

A primeira é denominada responsabilidade em sentido estrito, no sentido de que as big techs são publishers e, por isso, têm responsabilidade sobre as publicações de seus usuários.

Comparando ao direito brasileiro, seria a responsabilidade objetiva dos provedores. Existe uma crítica a esta modalidade de responsabilidade em razão do “chilling effect”[4].

A segunda modalidade é o sistema da irresponsabilidade – de acordo com a Seção 230, a plataforma é neutra e não se responsabiliza pelas publicações de seus usuários.

O terceiro modelo é o da responsabilidade parcial ou condicionada. Este modelo já é desenvolvido no Reino Unido: as plataformas devem criar mecanismos, obrigações a serem obedecidas pelos usuários, além de fornecerem relatórios de transparência.

No Reino Unido, a plataforma, ao identificar publicação que não corresponda aos seus termos de uso, deve emitir uma notificação extrajudicial ao usuário para que a exclua.

O Brasil adota esse sistema de responsabilidade, porém, a notificação ao usuário infrator se faz de forma judicial, de acordo com o artigo 19 caput do Marco Civil da Internet.

Além disso, a notificação não deve ser genérica, deve conter a URL da publicação do conteúdo, o que inclusive dificulta sua localização em razão da rápida viralização que ocorre na internet.

Há exceções à judicialização da notificação, como por exemplo a que consta no artigo 21 do Marco Civil da Internet, sobre pornografia de vingança. Neste caso, em razão da divulgação de imagens ou vídeos não autorizados pela vítima, não se defende a liberdade de expressão. Trata-se de ato ilícito e a publicação deve ser retirada após notificação extrajudicial.

No final de março de 2023, no STF, houve audiência pública para discutir novas regras do Marco Civil da Internet. A Corte vai julgar ações que tratam de trechos desta lei e a responsabilidade de plataformas digitais sobre conteúdos ilícitos ou ofensivos postados por seus usuários.

O STF entende pela necessidade de maior autorregulação das plataformas, na busca de mitigar os prejuízos para os usuários.

Por exemplo, a criação de perfil falso em rede social se trata de ato ilícito por si só e não deveria aguardar a judicialização do caso para então remover o perfil. Não há exercício de liberdade de expressão aqui.

Outra situação se refere aos discursos de ódio, haveria aqui liberdade de expressão ou ato ilícito? O mesmo questionamento se faz sobre os crimes de preconceito. Seria necessário entrar no judiciário por algo que está expresso como crime?

A verdade é que a autorregulação propicia maior garantia à segurança dos serviços das plataformas, além de evitar ambiente tóxico nas redes.

Hoje, a norma só responsabiliza as plataformas quando não houver cumprimento de decisão judicial determinando a remoção de conteúdo postado por usuários, conforme artigo 19 da lei, com exceção de cenas de nudez ou atos sexuais de caráter privado, as quais devem ser removidas a partir de notificação extrajudicial.

Por outro lado, a falta de objetivação do que seria o discurso de ódio ou ofensivo daria margem para remoção de conteúdos relevantes para a democracia, empobrecendo o debate público.

Por fim, entende-se que o Marco Civil da Internet, em vigor desde 2014, deve ser reestruturado em alguns aspectos. Não se ignora o benefício da autorregulação pelas plataformas, porém, é necessário cautela para não haver prejuízo à liberdade de expressão, tampouco atraso para a inovação tecnológica com o ônus regulatório.

 

Legendas “Zero” Juridiquês:

Trata-se de artigo analisando a responsabilidade das plataformas digitais (facebook, instagram, tiktok, etc) pelas publicações ofensivas realizadas pelos seus usuários. Fizemos uma análise de como se dá na prática esta responsabilidade em alguns países, assim como no Brasil, onde tais plataformas apenas serão responsabilizadas caso não retirem o conteúdo ofensivo após sua intimação. Por fim, indica-se a tendência de mudança de alguns aspectos atuais da lei, principalmente para que sejam previstas situações onde a retirada de certos conteúdos seja automática, independente de intimação judicial.

Responsabilidade civil: responsabilidade decorrente de ato ilícito praticado por outrem.

Responsabilidade objetiva: ocorre independente de culpa de quem cometeu o ato.

Audiência pública: Reunião pública, transparente e de ampla discussão em que se vislumbra a comunicação entres os vários setores da sociedade e as autoridades públicas.

Marco Civil da Internet: norma legal que disciplina o uso da Internet no Brasil.

 

Por Bruna Braghetto, Advogada, Palestrante e Instrutora In company. MBA em Direito Corporativo, Compliance e Pós-Graduada em Processo Civil e Direito Civil pela Escola Paulista de Direito. Graduação em Direito pela Universidade Católica de Santos.

 

 

 

 

Como o PMA pode ajudar?  O PMA pode ajudar empresas que sofrem responsabilização por publicações de usuários, defendendo-as de eventuais processos movidos contra si através da tese de responsabilidade parcial ou condicionada, bem como defesa da liberdade de expressão.

 

[1] Big Tech, também conhecido como Tech Giants, refere-se às empresas mais dominantes no setor de tecnologia da informação, notadamente as cinco maiores empresas americanas de tecnologia: Alphabet, Amazon, Apple, Meta e Microsoft. Essas empresas são chamadas de Big Five.

[2] Publisher é uma pessoa ou empresa que atua como veículo para a publicação de conteúdo.

[3] 2020-004-IG-UA

[4] Em um contexto legal, um chilling effect é a inibição ou desencorajamento do exercício legítimo de direitos legais e naturais pela ameaça de sanção legal. O direito que é mais comumente descrito como sendo suprimido por chilling effect é o direito constitucional estadunidense de liberdade de expressão.

0 Comentários

rararararararafvcx vzxcsdzxvc