JOSÉ FIGUEIREDO, ECONOMISTA

A inteligência artificial: Precisamos de regulação forte

Com o lançamento do ChatGPT da OpenAI, uma empresa onde a Microsoft tem um investimento significativo, a inteligência artificial (IA) saltou para o mundo dos comuns mortais.

O progresso na área da IA tem sido vertiginoso. Por exemplo, hoje em dia a IA ganha facilmente aos melhores mestres de xadrez, vence os melhores jogadores de poker, ou qualquer jogo de estratégia, passa sem dificuldade no exame de acesso a profissões como médicos ou advogados e é capaz de escrever cerca de 40% do código de programação de computadores.

O que permitiu estre progresso alucinante foi o alargamento exponencial da capacidade de computação e da informação que pode ser trabalhada.

Entre 2012 e 2022 a capacidade de computação usada para treinar os maiores modelos de IA multiplicou-se por um fator de 100.000.000 e a quantidade de dados consumida pelos modelos aumentou exponencialmente.

Apesar dos estonteantes progressos dos últimos anos os modelos atuais ainda comportam um potencial de erro significativo.

Por exemplo, quando se perguntou ao ChatGPT, qual era o artigo de economia mais citado do mundo, o modelo devolveu uma resposta totalmente plausível, mas errada – o artigo citado pelo modelo simplesmente nunca foi escrito…

Contudo, não tenhamos ilusões – o potencial de erro vai diminuir progressivamente. Com o aumento exponencial da quantidade de dados disponível e da capacidade de computação, em muitas matérias, a IA vai claramente suplantar mesmo as melhores performances dos seres humanos.

Uma das questões curiosas que se colocam é saber se os atuais modelos de IA passam o teste de Turing, isto é, se são verdadeiramente inteligentes.

Alan Turing foi um dos pioneiros das ciências da computação e da IA. Depois de ajudar os aliados a ganhar a segunda guerra mundial – conseguiu decifrar os códigos de comunicação alemães – dedicou-se ao tema da IA e concebeu um teste para verificar se uma máquina era, de facto, inteligente.

Basicamente trata-se de colocar uma pessoa em diálogo com duas entidades que estão por detrás de uma cortina. Uma delas é um computador a outra é um ser humano. O diálogo vai decorrendo com perguntas e respostas sem que a pessoa em frente da cortina possa saber qual dos interlocutores é uma máquina ou um ser humano. A máquina é considerada inteligente se for impossível à pessoa em frente da cortina perceber qual dos interlocutores é um ser humano.

Aparentemente os modelos de IA atuais ainda não passam o teste de Turing mas, mais uma vez não alimentemos ilusões – vão conseguir superá-lo – é uma questão de tempo.

Como qualquer nova tecnologia a IA comporta benefícios e riscos e, neste caso, os riscos são gigantescos.

A OpenAI, antes de libertar o ChatGPT, fez um esforço louvável de autorregulação. Foi pedido a um vasto conjunto de especialistas de diversas áreas que testasse a qualidade e a perigosidade dos outputs do modelo. Entre outras coisas os especialistas detetaram que o modelo ensinava a fazer armas químicas e até indicava os locais onde os componentes podiam ser comprados.

Naturalmente que a versão que saiu para o público não ensina a fazer armas químicas. Em todo o caso, este exemplo extremo e quase anedótico mostra o nível de risco de que estamos a falar.

O mais assustador em tudo isto é que os desenvolvimentos da IA estão a ocorrer sem um mínimo de escrutínio público.

Alguma regulação que porventura esteja a ocorrer é autoregulação das empresas que desenvolvem os modelos. Talvez possamos confiar minimamente nos padrões éticos da OpenAI-Microsoft e da DeepMind-Google. Mas que sabemos nós de empresas mais pequenas ou com menos escrutínio público?

Para se aquilatar do desconforto que grassa na comunidade da IA cito três factos. O primeiro é a carta aberta subscrita por 1.800 especialistas de todo o mundo (entre elos Elon Musk e Steve Wozniack – cofundador da Apple)  que pede uma moratória nos desenvolvimentos da IA que dê tempo à criação de um quadro regulatório público eficaz, o segundo é a saída da DeepMind de um dos fundadores da empresa que pretende ficar livre para criticar o que for de criticar e trabalhar para a criação de um quadro de controlo dos desenvolvimentos de IA e, finalmente, as declarações do atual presidente executivo da OpenAI, perante o congresso americano, solicitando a regulação pública forte da IA.

Quando os que mais sabem da poda, e que mais poderiam eventualmente lucrar com a ausência de regulação no setor, mostram este nível de preocupação, creio que temos razões de sobra para, também nós, estarmos preocupados.

Quando uma empresa farmacêutica pretende lançar um novo medicamento tem de passar por um processo de escrutínio público que pode levar mais de dez anos. Esse processo pretende garantir, antes de mais, que o medicamento não causa danos.

É, por isso, difícil de compreender que, estando em causa um “produto” porventura mais perigoso que a mais perigosa das mezinhas, tudo esteja a acontecer sem qualquer controlo público, dependendo apenas da autorregulação dos promotores da IA.

Mesmo que todos estejamos de acordo que o setor precisa de regulação temos um problema. Como defini-la? Quais os objetivos?

A coisa é relativamente fácil quando se trata de um medicamento que visa curar uma doença. Existe um objetivo (curar a doença) e pretendemos saber se o putativo medicamento é eficaz para o objetivo (se cura) e se não causa dano intolerável.

No caso da IA qual é o objetivo? Quais são os riscos colaterais que devemos prevenir? Como saber se a IA é eficaz se não sabemos definir o objetivo? Como prevenir riscos que são tão genéricos?

Obviamente este vosso humilde criado não tem as respostas no bolso.

Há, contudo, uma coisa que me parece certa – deixar andar não é opção, a ausência de regulação pública é demasiado perigosa.

Creio que podemos pensar em modelos que combinem o que existe em diversos setores regulados.

Por exemplo, o GPS é de utilização pública, mas certas valências (particularmente perigosas para a segurança geral) não estão disponíveis para o público.

Há situações em que o exercício de certas atividades sensíveis requer um licenciamento público o qual, em princípio, é antecedido de um escrutínio cuidadoso dos promotores, dos respetivos objetivos e capacidades.

Provavelmente os primeiros modelos regulatórios não serão perfeitos. Teremos de seguir aqui o aforismo de Samuel Beckett: “errar, errar de novo, errar melhor…”

O apelo acima referido de uma moratória no desenvolvimento da IA parece-me ineficaz e desajustado. Por um lado a IA pode trazer-nos coisas muito boas em diversíssimos domínios e, por outro, não vejo como se possa parar o desenvolvimento tecnológico nesta área.

A IA vai afetar todos os aspetos da nossa vida. Como tal, coloca problemas de fundo no plano ético-filosófico, político-social e também na economia.

Neste espaço de crónica tentarei dizer alguma coisa sobre os impactos na economia, no emprego e no tecido social.

Fica para outro dia.

 

Data de introdução: 2023-06-07



















editorial

TRABALHO DIGNO E SALÁRIO JUSTO

O trabalho humano é o centro da questão social. Este assunto é inesgotável… (por Jorge Teixeira da Cunha)  

Não há inqueritos válidos.

opinião

EUGÉNIO FONSECA

IPSS OU EMPRESAS SOCIAIS: uma reflexão que urge fazer
No atual cenário europeu, o conceito de empresa social tem vindo a ganhar relevância, impulsionado por uma crescente preocupação com a sustentabilidade e o impacto social.

opinião

PAULO PEDROSO, SOCIÓLOGO, EX-MINISTRO DO TRABALHO E SOLIDARIEDADE

A inatingível igualdade de género
A Presidente da Comissão para a Igualdade no Trabalho e no Emprego (CITE) foi à Assembleia da República no dia 3 de outubro com uma má novidade. A Lusa noticiou[1] que...