Breves considerações sobre a perícia judicial no algoritmo na Justiça no Trabalho

  • Em 21 de julho de 2021

O Tribunal Regional do Trabalho da 1ª Região (RJ) negou liminar em manda- do de segurança impetrado por empresa de intermediação de transporte via aplicativo que atacava decisão que determinou a realização de perícia técnica judicial em algoritmo utilizado pela plataforma judicial para fi ns de
apuração de subordinação.
Na decisão, o TRT carioca entendeu, entre outros aspectos, que o segredo que defende a impetrante cede frente ao interesse social público. Também, que a prova pericial deve ser adstrita “à análise das instruções, critérios e algoritmos inseridos no código-fonte do aplicativo”.
A transparência no processo decisório dos algoritmos é necessária, principalmente para possibilitar negociações coletivas, já que somente assim os sindicatos poderão oferecer “contramodelos válidos” (na expressão usada por Domenico DeMasi).
Mas não há como deixar de lado as possíveis externalidades de uma decisão judicial como essa (as consequências fora dos autos – como aliás qualquer decisão tem em maior ou menor intensidade).
No impacto nos valores de mercado, aportes e investimentos em empresas de tecnologia, incentivo à inovação e mercado de startups a partir de um país que é conhecido por ter um Judiciário que manda abrir código fonte de aplicações das empresas de tecnologia. Se já no mercado tradicional o segredo técnico é fundamental para o valor competitivo da empresa, no mercado de alta tecnologia isso adquire outra dimensão.
Em nenhum lugar do mundo houve rompimento judicial de segredo industrial de código-fonte de empresa startup nesses termos, o que, aliás, não impediu análise judicial com decisões para todos os lados, todas muito bem fundamentadas (como a recente tomada por um tribunal do Reino Unido).
O fato é que a criação de regramentos para uma inteligência artificial (IA) auditável a mecanismos de controle, aptas inclusive a detecção de predisposições ilícitas e automatismos espúrios sem quebra de segredo industrial e desestímulo ao investimento em tecnologia de ponta é um problema mundial.

O tema é realmente controverso e traz à luz a necessidade de pensarmos melhor como a prova técnica é produzida no Brasil, em especial na Justiça do Trabalho, menos acostumada com as demandas tecnológicas. E a efetividade do segredo de Justiça precisa passar, obviamente, pelo crivo dessa análise ampla.
O segredo de Justiça, nos termos do artigo 189 do Código de Processo Civil (CPC), protege os autos timidamente contra acesso de terceiros alheios à lide, sem, contudo, dar garantias efetivas de que o que está ali sendo discutido realmente não vai, na prática, acabar caindo em domínio público. Afinal, é muito comum se tomar conhecimento pela mídia de fatos discutidos em autos que tramitam em sigilo legal.
E não sejamos ingênuos, o segredo de Justiça é quase uma ficção nesse caso. No flaflu ideológico que virou a questão do trabalho via plataformas, a possibilidade de que a tal perícia esteja rodando nos grupos de aplicativo de mensagem no minuto seguinte em que seja disponibilizada nos autos é enorme.
No âmbito consumerista, a necessidade de uma perícia tecnológica já vem sendo debatida há mais tempo. No caso envolvendo conhecida empresa de venda de passagens e produtos turísticos pela internet, por exemplo, estabeleceu-se a controvérsia em torno da prática de discriminação geográfica de consumidores.
Tal prática é materializada por meio de técnicas algorítmicas conhecidas como o geo-pricing e geo-blocking, as quais possuem a potencialidade de causar danos aos consumidores, em ofensa ao livre mercado e à ordem econômica. Na prática, houve a acusação de que os algoritmos seriam programados com um viés discriminatório que, ao acessar o endereço do consumidor, oferece diferentes opções para os mesmos dados de pesquisa inseridos a depender da região de origem do interessado na oferta anunciada.
Em 2018, a Decolar.com foi condenada ao pagamento de multa milionária por tal prática. No caso, ficou comprovado que a empresa beneficiou turistas argentinos em detrimento dos brasileiros nas ocupações hoteleiras durante a Olimpíada do Rio de Janeiro.
Agora, se é possível a verificação de um viés algorítmico em razão dos dados que são utilizados como base para tomada de decisão, da mesma forma seria possível localizar na programação inserida nesse algoritmo padrões matemáticos que são utilizados para avaliação da base de dados e tomada de decisão automatizadas com um determinado viés, que pode ser discriminatório ou de intenção mesmo.
Pensando no dilema entre a propriedade intelectual e a efetiva impossibilidade do segredo de Justiça enquanto instrumento capaz de proteger o sigilo dos autos, alguns questionamento se fazem obrigatórios para fins de uma instrução processual que não coloque em xeque o apetite das empresas para investir em tecnologia no Brasil: 1) será que realmente é necessário abrir o código fonte para a realização dessas perícias?; e 2) uma prova de conceito poderia ser realizada colocando em teste os algoritmos por meio da utilização de uma base de dados fictícia e voltada para buscar exatamente os vieses do algoritmo?
Traduzindo, será que seria possível reproduzir o comportamento do algoritmo em perícia judicial tecnológica sem que as empresas de tecnologia necessitem apresentar abertamente todo o seu patrimônio intelectual e diferencial de mercado? Acreditamos que sim!
Na hipótese consumerista acima referida, que pode servir de inspiração para a instrução processual trabalhista, o próprio Ministério Público constatou em produções de provas independentes realizadas pelo seu setor pericial as práticas de geo-piercing e geo-blocking. Ou seja, sem a necessidade sequer de passar pela perícia judicial ou acessar o código fonte da empresa. Bastou simular as contratações como se realizadas em diferentes localidades para atestar o comportamento dos algoritmos nas compras online a depender de onde reside o consumidor.
Importante ressaltar que os algoritmos se alimentam basicamente de duas fontes para atingir o seu objetivo: a “programação inserida” e a “base de dados que o alimenta”.

Nesse contexto, seria possível aplicar técnica semelhante a que o Ministério Público Estadual utilizou no caso da Decolar.com para as perícias trabalhistas visando à constatação, ou não, da presença de rastros de poder diretivo na programação dos algoritmos das plataformas tecnológicas intermediárias por meio da manipulação da base de dados ao invés da programação algorítmica em si. Afastando-se a discussão em torno da violação da propriedade intelectual.
Ao manipular uma base de dados fictícia que seria submetida ao algoritmo sob investigação, por exemplo, haveria a possibilidade de se constatar se as alegações formuladas nas iniciais e contestações relativas ao bloqueio do prestador, a sua exclusão unilateral, liberdade de aceitação de demanda, limitação de acesso, entre outras, se confirmam na prática e da forma como sustentado.
Por fim, independentemente do que acreditamos em relação à contratação em plataformas, teremos de enfrentar o tema das decisões automatizadas frente ao disposto no artigo 20 da LGPD,  vigente desde setembro de 2020.
O referido dispositivo garante ao titular de dados (motoristas e entregadores de aplicativo, por exemplo) o direito de solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluí-das as decisões destinadas a definir o seu perfil profissional e de consumo.
E vai além, determinando que o controlador (plataformas tecnológicas intermediárias, por exemplo) tem o dever de fornecer informações claras e adequadas a respeito dos critérios e dos  procedimentos utilizados para a decisão automatizada, observados os segredos comercial e industrial. Sendo que, no caso de não oferecimento de tais informações baseado na observância de  segredo comercial e industrial, a Autoridade Nacional de Proteção de Dados (ANPD) poderá realizar auditoria para verificação de aspectos discriminatórios em tratamento automatizado de dados pessoais.
Lembrando também que a explicabilidade é diretriz mandatória para uma IA ética e respeitadora de direitos humanos, de modo a que escolhas autônomas restem acompanhadas da inteligível motivação, devendo se fazer explícitos os fundamentos das decisões algorítmicas, nas palavras de Juarez de Freitas.
Nesse sentido, admitindo que a inteligência artificial de fato pratica atos jurídicos (ou equiparáveis) reforça-se a necessidade da criação de uma inteligência artificial explicável (explainable AI ou XAI) cientificamente rigorosa. Descabe aqui uma regulação arcaica e analógica, de modelagem clássica o que fatalmente gera decisões judiciais também de modelagem clássica. Nesse vértice cita-se a recentíssima proposta da Comissão Europeia para Regulação da Inteligência Artificial divulgada no final do mês de abril.
O fato é que doutrina e Judiciário têm criado conceitos para tentar justificar ou não a presença de subordinação nas relações plataformizadas de trabalho, sem, no entanto, buscar formas  igualmente inovadoras para testar a tese construída e convencer o jurisdicionado de que não se trata apenas de uma guerra conceitual.
A questão por certo não se resolverá na quebra de segredos industriais sobre uma justificativa trazida através de uma interpretação abstrata de algum princípio pinçado do extenso rol que consta das leis brasileiras, mas no equilíbrio ecossistêmico que ao mesmo tempo não iniba a criatividade, o investimento e a inovação, seja construtivo e preserve as diretrizes ético-jurídicas.

 

MAURICIO PALLOTTA RODRIGUES – Mestre em Direito do Trabalho e da Seguridade Social pela Universidade de São Paulo. Especialista em Direito Previdenciário pelo Centro Universitário Salesiano. Graduado em Direito pela Universidade Presbiteriana Mackenzie. Sócio fundador do Pallotta, Martins e Advogados e da STLaw.

0 Comentários

rararararararafvcx vzxcsdzxvc