10 perguntas para Thiago Junqueira Chalfin, Goldberg & Vainboim

08/09/2020

O advogado e professor Thiago Junqueira mergulha nas decisões que utilizam Inteligência Artificial (IA). O resultado mostra uma seara de preocupações.

Soluções resultantes do uso de Inteligência Artificial (IA) podem carregar preconceitos e aprofundar desequilíbrios já históricos na sociedade brasileira. O tema não é novo. Mas se agrava. A designer sueca Johanna Burai chegou a criar, em 2015, um projeto (World White Web) para mostrar a contaminação preconceituosa em resultados gerados por algoritmos. O que o advogado e professor Thiago Junqueira fez foi, de certa forma, tropicalizar, segmentar e atualizar a questão. No livro Tratamento de Dados Pessoais e Discriminação Algorítmica nos Seguros, originado de sua tese, ele estudou cases do mercado de seguros – em especial nos campos de educação, saúde, segurança e trabalho. “Presume-se que as tarefas executadas pelas máquinas são mais justas, por serem matemáticas, mas os algoritmos reproduzem um aprendizado”, afirmou. “E processos seletivos digitais, cada vez mais comuns, podem gerar retrocesso no avanço da diversidade nos quadros de funcionários das empresas.” A seguir, trechos da entrevista de Junqueira, que é professor do ICDS e sócio do escritório Chalfin, Goldberg & Vainboim, no Rio de Janeiro.

Por mais que haja risco com processos automatizados, uma seleção feita por IA não tende a ser menos ‘injusta’ do que outra realizada só por pessoas?

A evolução tecnológica não é, por si só, boa ou má, nem neutra. O que realmente importa é a forma pela qual a sua implementação será moldada. Um sistema de IA é capaz de identificar se um candidato a emprego está mentindo ou exagerando em suas qualidades no currículo. O problema é que o sistema aprende sozinho a melhorar a tarefa de recrutamento – e, para tanto, pode usar dados indiretamente relacionados a gênero, raça e outras variáveis sensíveis. Uma decisão automatizada, sem controle efetivo, acabaria por legitimar essa decisão enviesada.

Para o bem e para o mal o algoritmo replica os vieses, então?

Existe uma expressão clássica entre os cientistas de dados: “Lixo entra, lixo sai”. Se os dados inseridos forem confiáveis e tiverem sido colhidos em uma sociedade mais igualitária, os resultados tenderão a caminhar no mesmo sentido.

Em seus estudos, quais desvios foram mais explícitos?

Existem vários exemplos pitorescos. Desde seguradoras inglesas que cobravam uma taxa consideravelmente mais alta para segurados que possuíam sobrenomes árabes até algoritmos que auxiliavam juízes norte-americanos na análise do potencial de reincidência criminal que comprovadamente possuíam viés racial em desfavor dos negros.

O que ocorria?

Em todos esses casos, os programadores não utilizaram diretamente os dados discriminatórios de gênero e raça. É preciso haver fiscalização dessas decisões algorítmicas.

De que tipo?

Destaco a exigência de treinamentos periódicos sobre ética, discriminação e proteção de dados para os profissionais das empresas que vão lidar com decisões automatizadas, como as equipes de RH e os próprios cientistas de dados. A transparência em relação aos dados utilizados por sistemas de IA e os cuidados necessários no seu processamento, como a análise de viés e representatividade, o grau de accountability exigido na programação dos algoritmos pelos controladores e a forma adequada de auditá-los são igualmente importantes.

Isso a posteriori. E a priori?

O incentivo a uma maior diversidade nas equipes de TI das empresas de tecnologia também se constitui em uma medida aconselhável. No Brasil, 82% dos cientistas de dados são do gênero masculino, o que, sem dúvida, influencia a programação dos algoritmos e os seus resultados.

Uma das soluções que o senhor propõe  que as empresas auditem resultados de seus algoritmos. Isso pode eliminar toda economia com tempo e dinheiro vindo da IA, não?

Embora auditorias detalhadas, de fato, tenham um valor elevado, é possivel sem grandes esforços fazer uma verificação inicial dos resultados. Por exemplo, entre os últimos funcionários contratados pela empresa, quantos eram pertencentes a algum grupo minoritário?

IA pode ser adotada cada vez mais em outras fronteiras, mais complexas e polêmicas? Uma decisão médica, ou um julgamento?

É provável que as decisões tomadas por sistemas de IA sejam progressivamente utilizadas nos mais variados campos da sociedade. Isso já traz ganhos notáveis.

Mas também estamos diante de discussões muito desafiadoras. Por exemplo: como responsabilizar um algoritmo pelo diagnóstico e a indicação de um tratamento incorreto?

E no campo jurídico, em especial num País como o Brasil em que esse acesso é precário e desigual? Usar IA seria mais isento, rápido e barato.

Há quem diga que a substituição de juízes por robôs geraria um avanço para a sociedade. Penso, contudo, que nesse campo o fator humano continuará sendo essencial. Sem prejuízo de que as máquinas auxiliem na gestão dos processos e nas pesquisas dos magistrados, interpretando dados e fornecendo subsídios para as decisões. Creio que um programador de algoritmos não teria legitimidade para substituir um magistrado nos tempos atuais.

Uma resposta corporativista, não? Um algoritmo poderia questioná-la…

De forma alguma. Alguns trabalhos mais simples poderão ser substituídos pelas máquinas. Estudo da LawGeex mostrou que IA levou 26 segundos para revisar contratos, contra 92 minutos dos advogados. E a precisão foi de 94% contra 85%. Mas no estágio atual a IA não seria capaz de fazer nem 25% do que os advogados humanos fazem no dia a dia. Nada impede, porém, que a IA sirva para examinar as decisões dos juízes e contribuir para a melhoria delas. Isso, a propósito, seria até recomendável.

Compartilhe nas suas redes sociais

LinkedInFacebook