POR PAULO QUARESMA
ILUSTRADO POR FRANCISCO COSTA COM IA
Nos últimos anos, a expressão inteligência artificial “Artificial Intelligence” (IA) tem invadido as nossas vidas, seja através da comunicação social, das redes sociais ou das “tradicionais” conversas de amigos. Para além disso, em quase todos os domínios de atividade temos acompanhado a introdução de alterações baseadas em metodologias de inteligência artificial. Na área da saúde, sistemas de diagnóstico baseados em IA; na agricultura, sistemas de rega individualizada para cada planta; na mundo da banca e das finanças, sistemas de IA a analisar riscos e investimentos; na área da mobilidade, veículos autónomos; na área do ensino, tutores inteligentes que permitem uma aprendizagem personalizada. Na verdade, não há, atualmente, domínio do conhecimento em que a IA não tenha uma influência e um impacto enorme!

MAS O QUE É, AFINAL, A INTELIGÊNCIA ARTIFICIAL(IA)?
Uma das primeiras definições, de John McCarthy, em 1956, definia a IA como: the science and engineering of making intelligent machines. Embora seja uma definição que foi um marco histórico nesta área, remete para o conceito, algo circular, de máquinas inteligentes. A definição tem vindo a evoluir com o tempo e com a maturidade deste domínio científico e o conceito atual afastou-se por completo da dependência de uma máquina e aproximou-se da caracterização de inteligência: the study of agents that receive precepts from the environment and take action (Russel & Norvig). Isto é, se um dado agente age de forma a maximizar os seus resultados, baseado no seu conhecimento e na sua perceção do que o rodeia, então pode ser considerado um agente inteligente. E, claro, se é um agente artificial (ex: robot, programa de computador), então possui inteligência artificial.

Neste contexto, uma possível pergunta que nos podemos colocar é:
“O que é que aconteceu, de carácter disruptivo, que levou nos últimos anos a este crescimento exponencial de sistemas baseados em inteligência artificial?”

A resposta a esta questão tem vários fatores, mas os principais são o aumento exponencial na capacidade de processamento computacional por parte dos sistemas informáticos (mais velocidade, mais memória, novas arquiteturas computacionais), associado à existência e disponibilidade de quantidades imensas de dados, e conjugado com o desenvolvimento de metodologias baseadas em modelos de aprendizagem profunda com base em redes neuronais. É esta conjugação de fatores que permite analisar conjuntos de dados de dimensão quase ilimitada e de, com esses dados, construir modelos computacionais representativos do conhecimento.

O diagnóstico médico é um exemplo paradigmático desta situação: os atuais sistemas computacionais têm a capacidade de analisar todo o histórico de um determinado tipo de exame complementar de diagnóstico e, criar modelos preditivos do diagnóstico associado a um novo exame com um desempenho igual ou superior aos melhores peritos médicos.
Contudo, o exemplo mais mediático e de maior impacto na sociedade é, certamente, o uso de grandes modelos de Língua (LLM – Large Language Models) para a geração de respostas a questões específicas. Os modelos mais poderosos foram construídos com base em redes neuronais com biliões de parâmetros e possuem janelas de contexto com mais de 30 mil palavras. Isto significa, de uma forma simplista, que geram uma nova palavra com base nas 30 mil palavras mais próximas dessa palavra em todos os textos usados para a aprendizagem do modelo. Desta forma, estes modelos de língua conseguem captar e representar praticamente toda a informação disponível na web e têm sido utilizados com bastante sucesso como suporte a diversas tarefas em variadíssimos domínios.

É importante, no entanto, alertar para o facto de que são sistemas baseados em modelos de língua e não são “oráculos” baseados em representação de conhecimento! São conhecidas, e facilmente reproduzíveis, situações em que estes sistemas geram respostas incorretas, não baseadas em factos e em que demonstram a inexistência de uma representação de conhecimento e de uma capacidade de raciocínio adequado. É previsível que as lacunas existentes sejam resolvidas com a evolução dos atuais modelos, contudo é importante ter uma noção clara das limitações existentes, de forma a tirar o melhor partido possível das ferramentas de IA disponíveis.

No entanto, e de uma forma mais abrangente, considero que o principal desafio que se coloca aos atuais sistemas de IA é o de assegurar que têm um comportamento ético e responsável em todas as situações. Este é um caminho que ainda está no seu início e que implica que, numa primeira fase, os sistemas baseados em IA assumam comportamentos responsáveis, com ações que possam ser explicadas e auditadas e que sigam princípios de transparência, confiabilidade, justiça, privacidade, inclusão e segurança.
É um grande e complexo desafio, que é simultaneamente uma ameaça e uma oportunidade, e que tem de ser assumido por toda a sociedade. Se queremos ter sucesso na resolução deste desafio, transformando a ameaça numa oportunidade, será necessário uma participação informada, pró-ativa e empenhada de toda a sociedade.
Fica o repto!





