Uso governamental de inteligência artificial e discriminação algorítmica

  • Em 30 de setembro de 2021

Em 1950, Alan Turing, através de seu artigo “Computing machinery and intelligence”, propôs a seguinte questão: “Podem as máquinas pensar?”. Certamente, desde então, a inteligência algorítmica tenta reproduzir a inteligência humana e, talvez, a pergunta tenha mudado para “Como fazer para potencializar os benefícios e evitar os riscos da inteligência artificial?”

O que é, enfim, o algoritmo? Algoritmos são mecanismos e instruções por meio dos quais dados são processados e articulados a partir de determinados parâmetros para prever comportamentos e tomar decisões.

Trata-se da utilização de um modelo preditivo a partir da emulação da mente humana, utilização de dados, probabilidade de cenários e combinações.

Em suma, trata-se do que a mente humana já faz com base em coleta de dados, experiências, observações que levarão a padrões de comportamento frente a determinados cenários.

Os riscos começam no uso de dados incompletos ou enviesados. A informação enviesada é, portanto, o início do que seria uma discriminação algorítmica.

É necessário cautela na criação dos algoritmos para que:

  • Não sejam eles baseados em suposições do passado;
  • Não reflitam valores e viés de seus criadores, ressaltando a tendência do ser humano a criar viés de confirmação (confirmation bias)[1];
  • Não deixem de levar em consideração a complexidade da realidade, maior do que os computadores conseguem absorver;
  • Não deixem de ser atualizados, situação em que o processo decisório chegará a uma decisão não ideal.

 

Todas essas limitações são capazes de criar um ciclo vicioso em um sistema que se retroalimenta de informações falsas, limitadas ou enviesadas, trazendo respostas incompatíveis com a realidade e sociedade.

A inteligência artificial está inserida não só no âmbito privado, mas também no Estado, principalmente no caráter repressivo e punitivo da criminalidade. Como vantagens no uso deste modelo pelo Estado, podemos citar:

  • Entender quem cometeu crimes: olha-se os padrões históricos para averiguar áreas mais perigosas e que demandam mais policiamento;
  • Hipervigilância: identifica-se pessoas na rua com reconhecimento facial, ajudando a encontrar detratores;
  • Modelos de prevenção: a partir de grande base de dados e hipervigilância tenta-se prever o crime antes de acontecer.

Porém, em contrapartida, o uso da Inteligência Artificial pelo Estado pode trazer as seguintes desvantagens:

  • Com mais policiamento, mais crimes descobertos e dados negativos existirão, reproduzindo desigualdades regionais e estereótipos;
  • Perde-se a privacidade ao meso tempo em que as minorias estão em constante vigilância em áreas mais pobres;
  • Estado detém ferramenta de controle social e comportamental.

 

A título de exemplo de efeitos negativos causados pela hipervigilância, temos a China. Em dezembro de 2020, o jornal americano Washington Post teve acesso a um documento, assinado por funcionários da empresa de telecomunicações Huawei, que apresentava às autoridades chinesas um novo tipo de inteligência artificial: capaz de analisar imagens de câmeras em tempo real e reconhecer rostos uigures[2] para então alertar a polícia sobre a presença de pessoas dessa etnia. O objetivo seria levá-los a campos de concentração.

O receio é de que a inteligência artificial nas mãos do Estado possa ser utilizada como arma de destruição em larga escala com o uso de dados enviesados, falta de transparência sobre o funcionamento e subjugamento dos mais vulneráveis. Ou seja, teme-se pela busca da eficiência a qualquer custo em sobreposição à justiça.

De um modo geral, em sociedades desiguais e racistas, a programação dos algoritmos, considerando o contexto social de educação e, logo, ocupação de cargos de maior complexidade, será realizada geralmente por homens brancos que irão embutir seu próprio viés (bies), trazendo risco de potencial maximização deste racismo, o que é grave.

É necessário que haja uma grande discussão com a sociedade civil a respeito do tema, o que não houve quando do surgimento das redes sociais, tudo no sentido de evitar a eclosão de um problema irreversível.

Um caso emblemático de “desinteligência artificial” ocorreu quando o pesquisador Nicolas Kayser-Bril rodou duas imagens de pessoas segurando um termômetro na Google Vision, recurso de análise de imagens. Na foto com a pessoa asiática, as etiquetas “Tecnologia” e “Dispositivo Eletrônico” lideraram. Já na imagem com a pessoa negra, a etiqueta “Arma” foi marcada com 88% de certeza.

Diante deste cenário, surge a questão: “Como seria a regulação dos algoritmos, considerando o segredo comercial? Há órgãos que já possam fazê-lo? Há a responsabilização de uma pessoa física?

É certo que o segredo industrial cria dificuldades a esse respeito, porém este deve ser relativizado em prol de um bem maior, da mesma forma que o Direito Antitruste relativiza o Direito de propriedade diante do monopólio.

Ainda, segundo o Princípio da precaução, deve ser garantida a supremacia da cognitividade humana sobre a artificial: deve ser possível desligar o robô como a Microsoft fez, quando se viu obrigada a retirar um robô do Twitter porque em sua interação com seres humanos elaborava mensagens com conteúdo racista, sexista e xenófobo.

chatbot (sistema virtual capaz de gerar conversas que simulam a linguagem humana) foi projetado pela empresa para responder perguntas e entabular conversas no Twitter numa tentativa de capturar o mercado dos millenials nos Estados Unidos, porém, não foi capaz de lidar com insultos racistas, piadas e comentários que, por exemplo, endossavam teorias conspiratórias sobre os atentados de 11 de setembro.

A partir deste exemplo se vê a possibilidade de perder o controle sobre o robô criado, logo, seria possível a responsabilização do criador por culpa grave ou dolo eventual?

A Câmara dos Deputados aprovou o regime de urgência para o Projeto de Lei 21/2020 que trata do Marco Legal da Inteligência Artificial.

A regulamentação do uso da Inteligência Artificial busca balancear o incentivo à inovação e a proteção da livre concorrência para garantir direitos humanos e valores democráticos, promovendo a segurança dos agentes, privacidade e a proteção de dados.

Porém, o projeto de lei recebe uma série de críticas pela falta de discussão a respeito com os pesquisadores do ramo, caráter genérico e falta de embasamento técnico na proposição dos artigos.

Por fim, uma certeza que se tem é de que a demanda contemporânea é estabelecer um liame entre Direito e Tecnologia, onde se reflita os valores sociais e respeitem os direitos humanos, ao mesmo tempo em que propicie ferramentas úteis e seguras ao Estado e particulares.

 

[1] Também chamado de viés confirmatório ou de tendência de confirmação, é a tendência de se lembrar, interpretar ou pesquisar por informações de maneira a confirmar crenças ou hipóteses iniciais

[2] Os uigures (singular: uigur ou uigure) são um povo de origem turcomena que habita principalmente a Ásia Central.

 

Por Bruna Braghetto, sócia advogada no Pallotta, Martins e Advogados. Pós Graduada em Processo Civil e Direito Civil pela Escola Paulista de Direito e cursando MBA em Direito Corporativo e Compliance. 

 

[  Artigo selecionado pela Revista Conceito Jurídico. Clique Aqui e Confira →  ]

0 Comentários

rararararararafvcx vzxcsdzxvc