Passado um mês da divulgação da carta de alerta da organização sem fins lucrativos Future of Life Institute (FLI) pedindo uma pausa nos experimentos com Inteligência Artificial (IA), surgem questões sobre o que de concreto pode acontecer, já que, exceto por novas adesões entre os signatários, muito pouco ocorreu. A mensagem alarmista sobre riscos que podem trazer prejuízos à humanidade é assinada por diversos atores sociais de notoriedade, entre políticos, acadêmicos, especialistas e empresários do setor tecnológico. Para especialistas da UFRJ no assunto, é pouco provável que ocorra uma moratória que paralise por seis meses as pesquisas e evolução da IA.
A professora Priscila Machado Vieira Lima, do programa de Engenharia de Sistemas e Computação (Pesc), do Instituto Alberto Luiz Coimbra de Pós-Graduação e Pesquisa de Engenharia (Coppe/UFRJ), acredita que é bem mais difícil de se obter na prática uma adesão mundial à pausa do que quando tal paralisação se refere à produção de armas nucleares, por exemplo. “Uma vez assinado um acordo de não proliferação de armas nucleares, sua implantação pode ser acompanhada pelo rastreio de materiais, que são extremamente controlados, e de instalações industriais. O mesmo não poderia ser feito para a proposta encabeçada pelo FLI”, opinou.
Do ponto de vista de Lima, a paralisação é inviável. Ela argumenta que se deve aproveitar a proposta para intensificar e ampliar o público envolvido nas discussões para obtenção de regulamentações adequadas e cujas aplicações sejam factíveis. “O avanço nos aspectos regulatórios seria uma meta mais realista e com maior probabilidade de resultado”, afirmou.
Para o professor Claudio Miceli de Farias, também do Pesc, a carta não pede simplesmente uma pausa. “A reivindicação é de um pouco mais de cuidado sobre esses experimentos e sobre as coisas que estamos fazendo. Na verdade, o quão rápido a IA pode ser utilizada para romper a fábrica do tecido social, de como nossa sociedade funciona? O que isso vai gerar? Qual o impacto de uma dessas aplicações caso dê errado?”, questiona ele.
Segundo a agência de notícia Reuters, em meados de abril uma dúzia de membros do Parlamento Europeu pediu à presidente da Comissão Europeia, Ursula von der Leyen, e até ao presidente dos Estados Unidos, Joe Biden, que convocassem uma reunião de cúpula para encontrar maneiras de controlar o desenvolvimento de sistemas avançados de inteligência artificial (IA), mas sem o tom alarmista do FLI. A Itália foi o único país a suspender as atividades do ChatGPT, o que pode ocorrer de forma definitiva se a empresa OpenAI não atender às demandas de proteção de dados e privacidade.
Os riscos do desenvolvimento desregulado da IA, segundo a professora do Pesc, já vinham sendo elencados há algum tempo e podem ser resumidos em: abuso de poder da IA; perda de controle da IA; desalinhamento de objetivos entre IA e humanos; e substituição de empregos de humanos pela IA. “O FLI, fundado em 2014, constituiu um marco ao colocar a Inteligência Artificial como uma das quatro áreas do conhecimento, lado a lado com as áreas de biotecnologia, armas nucleares e mudanças climáticas, que notoriamente apresentavam grande risco para a Humanidade”, informou Priscila Lima.
De acordo com a professora, muito já se debateu sobre a alimentação dos sistemas inteligentes com bases de dados enviesados e as formas de mitigar problemas com relação ao abuso de poder da IA – como a escolha automática de perfis de candidatos a um emprego ou avaliação automática de risco de reincidência de crimes para concessão ou não de liberdade condicional. No tocante à perda de controle da IA, a mitigação dos danos também passa fortemente pelo aprimoramento técnico de mecanismos que permitam ao sistema inteligente ser interrompido (“botões de pânico” embutidos nos algoritmos têm sido propostos).
Porém, os dois últimos tipos de riscos envolvem áreas inteiras, e não apenas técnicas específicas da robótica ou da computação. A questão da substituição de humanos por algoritmos está intimamente ligada à necessidade de alinhamento de objetivos ente humanidade/sociedade e IA. Estes temas precisam ser tratados sob óticas envolvendo praticamente todas as áreas dos saberes – talvez Sociedade 5.0 e Sustentabilidade sejam “super-temas” adequados para os debates mais imediatos.
Na visão de Claudio Miceli, uma das preocupações com IA é ética, pois é difícil confirmar veracidade. Se não é possível determinar o que é verdadeiro e o que é falso, por exemplo, há a probabilidade de que o uso seja para manipulação ou outros fins criminosos. “Como confiar no que é verdade? Só isso já é um problema. Fora que há outros relacionados à substituição rápida de empregos sem que se consiga dar para as pessoas uma outra opção. Na verdade, o problema não é a tecnologia substituir empregos, mas não dar opções para essa força de trabalho. O que fazer quando eles não tiverem mais renda? A nossa economia é baseada em consumo, mas e se as pessoas não conseguirem mais consumir? Esses são os problemas iniciais e imediatos que se vê com a IA, e tem outros mais fantasiosos”, concluiu.