JOSÉ FIGUEIREDO, ECONOMISTA

Como regular a inteligência artificial de uma forma inteligente

O mundo de hoje oferece-nos muitas razões para inquietação. Crise política doméstica, guerra na Ucrânia, guerra no médio oriente…São estes acontecimentos traumáticos que vão fixando a nossa atenção por estes dias.
No entanto, a vida continua. Outros desenvolvimentos igualmente importantes, mas que agora não suscitam o interesse dos media, continuam a fazer o seu caminho e convém que não os percamos totalmente de vista, que a espuma dos dias não nos tolde totalmente a visão.
Um desses desenvolvimentos é a inteligência artificial (IA) e as suas consequências no que serão as comunidades humanas num futuro próximo.
A IA é, porventura, a mais disruptiva evolução tecnológica que vivemos até aos nossos dias. As consequências poderão ser tão abrangentes e tão profundas que é impossível imaginar até onde podem chegar, o bem e o mal que podem fazer.
Nestas alturas, como, aliás, aconteceu nas revoluções tecnológicas anteriores, existe sempre uma tendência para hipertrofiar as consequências da mudança e formular distopias mais ou menos catastróficas.
Foi sempre assim. Quem teve a oportunidade de ver a obra prima cinéfila que é o Metropolis de Fritz Lang, recorda-se da visão distópica de um mundo dominado por máquinas imaginado numa altura em que a revolução tecnológica (pasme-se!) era a eletrificação e a maquinaria pesada das primeiras décadas do século XX.
Não nos podemos espantar que por estes dias surjam distopias terríveis, imaginando um mundo em que a humanidade é obliterada pelas máquinas que criou, ou um exército de robots escraviza a raça humana para seu proveito.
Como sempre o importante é não perdermos de vista o mundo real, aquilo que efetivamente sabemos, o mal que podemos antecipar e fazer o que é possível para o evitar.
O que vamos vendo nesta matéria pelo mundo parece caminhar no sentido correto em dois sentidos: por um lado, a concentração em temas reais do mundo real em vez das fantasias mais ou menos catastrofistas, por outro, o interesse político ao mais alto nível juntando, como me parece fundamental, gente do mundo da investigação e das empresas que estão na vanguarda da IA.
Na verdade, os riscos que podemos visualizar são riscos que já conhecemos, riscos que já existem no mundo digital com que convivemos, mas que a IA aumenta exponencialmente.
Por exemplo, a IA aumenta exponencialmente o risco de fraude no mundo digital. Com IA é possível construir suportes de voz ou imagem falsos, mas que são indistinguíveis dos originais verdadeiros. É possível enviar emails que são falsos, mas que os recetores dificilmente distinguirão de um potencial verdadeiro. O potencial para a fraude é, no limite, infinito.
Um outro domínio de risco é a exploração de dados pessoais para fins de negócio que estão na base dos lucros anormais de empresas como a Google ou Meta-Facebook. A IA pode exponenciar a exploração e monetização dessa informação.
A transformação colossal da distribuição da riqueza que nos trouxe a primeira revolução digital pode ser amplificada exponencialmente com a IA.
A IA tem o potencial de destruição de emprego como nunca vimos. A diferença é que agora não são os empregos da classe média ou média-baixa que estão em perigo – são empregos de topo.
É neste tipo de riscos reais, conhecidos, que se deve concentrar o esforço regulatório e não em fantasias rebuscadas de distopias imaginárias.
Recentemente aconteceram dois eventos dignos de nota.
Um deles foi uma cimeira no Reino Unido que juntou políticos e gente do negócio tecnológico de todo o mundo, China incluída. É, com certeza, a primeira de uma série de conclaves semelhantes e dela recolhemos a boa notícia que o esforço se concentrou na análise dos riscos reais do mundo digital como atualmente existe e no que é antecipável de amplificação pela IA.
O evento no Reino Unido foi antecedido de uma conferência similar, mas restrita aos Estados Unidos. Na sequência dessa cimeira americana, para a qual foram convocados os líderes das mais importantes empresas da IA, foi publicada uma ordem executiva da administração Biden que será, porventura, o primeiro documento guia da regulação pública da IA a nível global.
Trata-se de um documento interessante em que os principais capítulos são coisas razoavelmente mundanas como a garantia de que a IA é segura e confiável, a necessidade de proteção da privacidade, a salvaguarda dos direitos civis e equidade, a necessidade de proteção dos trabalhadores bem como a promoção da inovação e competição efetiva.
Pelo meio dos capítulos vemos coisas que podem parecer quase pueris, mas que não o são, de todo. Por exemplo, a proteção contra o uso de IA para fabricar químicos perigosos ou proteção contra a fraude através de boas práticas para detetar conteúdos gerados artificialmente de conteúdos oficiais autênticos.
Assim como a listagem dos riscos não requer nada de quintessencial, também as medidas a tomar não exigem nenhuma ciência particularmente exigente. Por favor não nos venham com a conversa estafada de que o mundo digital é demasiado complexo para que os reguladores o percebam.
Por exemplo, a prevenção da formação de novos monopólios ou reforço dos monopólios existentes (um risco real) pode ser conseguida com mecanismos que conhecemos muito bem, práticas potencialmente danosas como o uso de informação pessoal para fins comerciais, podem ser simplesmente proibidas.
Em relação ao tema da redistribuição da riqueza gerada pela IA há um aspeto particular que merece atenção. Os modelos de IA são treinados por conteúdos disponíveis na internet. Se alguém vai fazer dinheiro com os modelos pareceria justo que os autores dos conteúdos que permitem o treino dos mesmos fossem remunerados.
Recentemente um dos membros do grupo de música pop “Abba” publicou um editorial no Financial Times em que lembrava que a música dos “Abba” deve muito às composições dos Beatles das quais os elementos dos Abba eram consumidores compulsivos.
Contudo, como bem lembra o autor do editorial, os suportes que usaram para absorver a música dos Beatles, como discos ou outros suportes, eram pagos – os autores eram remunerados de uma forma ou de outra.
Há, portanto, todo um mundo de questões complexas em volta do tema da IA e da sua regulação.
Para já assinalemos os aspetos positivos, a saber, o reconhecimento da necessidade de regulação, a concentração no mundo real e não em fantasias e a tendência para ter todos a bordo, em particular, os líderes empresariais.
Naturalmente que nada está garantido. Por exemplo, uma mudança na administração republicana com a eleição de Donald Trump pode comprometer todo o esforço.
Em todo o caso, para já, parece que a coisa vai bem.

 

Data de introdução: 2023-12-12



















editorial

VIVÊNCIAS DA SEXUALIDADE, AFETOS E RELAÇÕES DE INTIMIDADE (O caso das pessoas com deficiência apoiadas pelas IPSS)

Como todas as outras, a pessoa com deficiência deve poder aceder, querendo, a uma expressão e vivência da sexualidade que contribua para a sua saúde física e psicológica e para o seu sentido de realização pessoal. A CNIS...

Não há inqueritos válidos.

opinião

EUGÉNIO FONSECA

Que as IPSS celebrem a sério o Natal
Já as avenidas e ruas das nossas cidades, vilas e aldeias se adornaram com lâmpadas de várias cores que desenham figuras alusivas à época natalícia, tornando as...

opinião

PAULO PEDROSO, SOCIÓLOGO, EX-MINISTRO DO TRABALHO E SOLIDARIEDADE

Adolf Ratzka, a poliomielite e a vida independente
Os mais novos não conhecerão, e por isso não temerão, a poliomelite, mas os da minha geração conhecem-na. Tivemos vizinhos, conhecidos e amigos que viveram toda a...