Texto por Eduardo Costa
Revisado pela Escola de Dados
Em seu workshop, Jonnison Lima, pesquisador da área de Inteligência Computacional na Universidade Federal do Piauí (UFPI), demonstra diferentes conceitos da evolução da Inteligência Artificial (IA) e do aprendizado de máquina. A ideia da atividade é entender como a IA pode estar presente em nosso cotidiano a partir do exemplo de um teste de reconhecimento facial, com a utilização do Google Colab, Python e das bibliotecas scikit-learn, Numpy e TensorFlow.
Para explorar as potencialidades das ferramentas é preciso compreender o que é a IA. No workshop, Jonnison utilizou a definição do pesquisador Yann LeCunn: “A inteligência artificial (IA) é um conjunto de técnicas que permitem que máquinas executem tarefas e resolvam problemas normalmente reservados a seres humanos e alguns outros animais”.
Desse modo, é desmistificada a noção de que a Inteligência Artificial veio para substituir os humanos, mas sim é uma ferramenta de auxílio em suas atividades, posto que a finalidade de uso é pautada na intencionalidade humana.
Jonnison também comenta que, nos estudos em IA, alguns tópicos são fundamentais como a definição de neurônios formais de 1948 por Warren McCulloch e Walter Pitts, o teste de Turing em 1950 e a primeira menção ao termo IA em 1956 por John McCarthy.
O interesse em IA retornou na década de 1980 pela indústria por conta do crescente aumento da capacidade computacional. Nesse momento, surge o desenvolvimento de Redes Neurais Multicamadas (MLP) e, logo após, a Deep Learning, nos anos 1990. Mais recentemente, em 2014, emergiram as Redes Generativas, que possibilitaram o boom do ChatGPT em 2022.
Além disso, Jonnison explica que para entender como o computador pode reconhecer as pessoas por imagem, é importante perceber que o aprendizado de máquina (Machine Learning) ocorre pelo reconhecimento de padrões, que permitem identificar características para obter informações e tomar decisões a respeito. O funcionamento básico do aprendizado de máquina se dá por etapas de input (entrada), extração de características, classificação e output (saída).
Então, para o computador, a imagem nada mais é do que um conjunto de números. Com base nas características extraídas, o algoritmo atua para tomar decisão (no caso do reconhecimento, se é aquela pessoa ou não). Dentro do paradigma do aprendizado de máquina, a IA não consegue atuar se forem adicionadas novas características, pois apenas filtra o que já está pré-definido. Logo, o modelo de IA deve ser reformulado.
No exemplo da atividade, Jonnison apresenta uma rede neural simples implantada em linguagem Python, que, utilizando um banco de imagens, buscou identificar quais imagens seriam do ex-presidente americano George W. Bush.
“Toda a base da inteligência artificial é matemática e o que a computação trouxe para a IA foi a rapidez nos cálculos”, pontua. Dentre os desafios da IA, o palestrante levanta a necessidade do ponto de vista ético, citando a questão dos vieses na construção de padrões de reconhecimento. Por conta do treinamento incorreto ou de um banco de dados pouco alimentado, a IA pode reforçar problemas da sociedade, como o racismo. Além desse tópico, e para fechar a atividade, Jonnison abordou também a importância da regulamentação e da transparência desse tipo de tecnologia.