Implicações da Inteligência Artificial e como mitigar vieses com ferramentas open source

Se antes falar sobre Inteligência Artificial parecia história de ficção científica, hoje este campo da ciência da computação está presente em cada vez mais tecnologias em nosso cotidiano. Os efeitos dessa nova realidade e os impactos dos vieses sociais foram os temas debatidos no keynote do segundo dia da V Conferência Brasileira de Jornalismo de Dados e Métodos Digitais, o Coda.BR 2020.

Com a participação de Gabriela de Queiroz, gerente sênior na IBM Califórnia e fundadora das organizações IA Inclusive e R-Ladies, e mediação de Ana Carolina da Hora (Nina da Hora), pesquisadora e colunista na MIT Technology Review Brasil, o encontro discutiu as múltiplas formas de mitigação dos vieses discriminatórios nas IAs (Inteligências Artificiais). Para isso, Gabriela conceituou de modo didático os pontos centrais do debate e apresenta ferramentas open source criadas para enfraquecer a interferência de preconceitos humanos nas tecnologias.

Inteligência Artificial: definições e implicações

A princípio, pode parecer complexo entender o que é IA e de que forma ela afeta o dia a dia das pessoas. Gabriela comenta que existem várias definições para a área, mas que a sua favorita é: “Qualquer coisa que permita que os computadores se comportem como humanos”.

Nesse amplo escopo, alguns conceitos famosos, como aprendizado de máquina (machine learning) e deep learning, também integram o campo da Inteligência Artificial. Machine learning é um subconjunto da IA que lida com a extração de padrões de um conjunto de dados, promovendo o aprendizado nas máquinas. A partir dessa definição, é possível entender deep learning, ou aprendizagem profunda, como um subtipo de aprendizagem de máquina que utiliza redes neurais profundas para que a máquina aprenda sozinha a realizar tarefas humanas.

Na teoria, pode dar a sensação de ser uma área distante da realidade cotidiana, mas essas ferramentas estão presentes nos smartphones, smartwatches, nas assistentes virtuais como Siri (Apple) e Alexa (Amazon), nos robôs aspiradores de pó e até em alguns modelos de campainha. “Essa tecnologia está em todos os lugares, tem diferentes formas, tamanhos e funcionalidades”, comenta Gabriela.

Não faltam exemplos de máquinas que utilizam a Inteligência Artificial e, em muitos casos, ela está presente em atividades ainda mais corriqueiras. Os chatbots, cada vez mais usados como uma forma de atendimento ao cliente pelas empresas, são um desses casos. É possível também encontrar IA nas buscas do Google, nas configurações de preenchimento automático de texto, nas recomendações em plataformas de streaming, em corridas de aplicativos como Uber e, inclusive, nas compras online. De acordo com a engenheira, “o objetivo principal dela é facilitar nossa vida e tornar algumas tarefas mais convenientes”.

No entanto, Gabriela alerta: “A tecnologia não é neutra, ela nunca é neutra”. Desse modo, embora os recursos que a IA ofereça sejam aparentemente operacionais e simples, eles não vêm sem um custo – e não é apenas financeiro.

Tecnologia e a catalisação de preconceitos

Presente em tantos espaços e aprendendo por meio de dados que crescem exponencialmente todos os dias, as ferramentas de IA podem gerar consequências de dimensões inimagináveis no campo social. As tecnologias são feitas por pessoas, que mesmo sem intenção podem perpetuar seus preconceitos por meio de códigos ou conjuntos de dados. “Normalmente, essa tecnologia piora as desigualdades”, afirma.

A engenheira confirma seu ponto apresentando alguns casos em que os algoritmos das IAs provocaram diretamente consequências sociais negativas. Entre elas, o uso de câmeras de reconhecimento facial pelo governo argentino para prender menores de idade por meio do cruzamento com a base de dados de procurados pela justiça. O sistema já apresentou diversas falhas, mas permanece sendo usado na capital do país, Buenos Aires.

Como corrigir o enviesamento dos dados

Gabriela de Queiroz propõe reflexões importantes que devem ser feitas no processo de criação de algum sistema. Para a engenheira, é necessário questionar primeiramente se a ferramenta deve de fato ser feita, quais tipos de vieses existem nos seus dados, o quão diversa é a equipe que construiu o software, os mecanismos de reparação caso pessoas sejam prejudicadas pelo algoritmo, entre outras coisas. Este exercício inicial é de suma importância, pois de acordo com Gabriela, “todos os tipos de dados são de alguma maneira enviesados”.

Além disso, a engenheira apresenta algumas ferramentas de open source criadas com o objetivo de mitigar tendências discriminatórias que podem existir nos algoritmos. Entre elas estão o Fairlearn, desenvolvida por uma equipe da Microsoft; o Lift, criado pelo LinkedIn; o What-If Tool, do Google; e o AI Fairness 360, feito pela IBM e recentemente oferecido à comunidade Linux.

Através do AI Fairness 360, por exemplo, é possível verificar vieses nos dados por meio de métricas de código aberto. A ferramenta também oferece tutoriais para uma maior compreensão das métricas e está disponível tanto na linguagem R quanto em Python.Por fim, Gabriela e Nina conversam com o público e respondem questões diversas sobre o assunto. 

Gabriela de Queiroz

Gabriela de Queiroz

É gerente sênior de engenharia e ciência de dados da IBM Califórnia, onde gerencia e lidera uma equipe de desenvolvedores que trabalham em projetos de código aberto de Inteligência Artificial (AI). Ela trabalha para democratizar a IA criando ferramentas e lançando novos projetos de código aberto. Ela trabalhou em várias startups, onde montou equipes, desenvolveu modelos estatísticos e empregou uma variedade de técnicas para obter insights e conduzir decisões centradas em dados. Ela é a fundadora da AI Inclusive (ai-inclusive.org), uma organização global que ajuda a aumentar a representação e a participação de minorias na Inteligência Artificial. Ela também é a fundadora da R-Ladies (rladies.org), uma organização mundial para promover a diversidade na comunidade R, com mais de 180 capítulos em mais de 50 países.

anacarolina

Ana Carolina da Hora

É pesquisadora, desenvolvedora front-end na Ootopia e colunista na MIT Technology Review Brasil. Criadora do projeto Computação da Hora, também é líder de desenvolvimento de formação de desenvolvedores para jovens dos países que falam a língua portuguesa na iniciativa Nguzu. Integra a rede de pessoas treinadoras da Escola de Dados.

REALIZAÇÃO

DESENVOLVIDO COM

APOIO

R Consortium

Hivos

Reino dos Países Baixos

U.S Embassy and Consulate

APOIO DE MÍDIA