terça-feira, 11 de fevereiro de 2025

Inteligência Artificial/ "Não há razão para que se torne perigosa para a humanidade", diz especialista português

Bissau, 11 Fev 25 (ANG) -  A capital francesa acolhe desde segunda-feira, a cimeira internacional sobre Inteligência Artificial, prevista para durar dois.

Neste encontro de  alto nível, co-presidido com a Índia, a França quer mostrar-se "como a verdadeira campeã da IA na Europa" e alertar para os riscos.

Arlindo Oliveira, especialista português em inteligência artificial - que participa nos trabalhos da cimeira - reconhece que os riscos existem, porém acredita que "não há razão para que a Inteligência Artificial se torne perigosa para a humanidade".

Qual é o objectivo desta cimeira sobre Inteligência Artificial?

Esta cimeira não é a primeira que ocorre. Concentra-se essencialmente nas questões do desenvolvimento da tecnologia, de forma a que os resultados sejam positivos e a minimizar as consequências negativas. Há, portanto, um grande foco nos riscos causados pela inteligência artificial, quer nos riscos imediatos, quer nos riscos a médio e longo prazo. Muitos países têm-se associado a este esforço, por perceberem que a inteligência artificial tem um grande impacto na sociedade.

A França tem ambições de acolher o organismo responsável por enquadrar a inteligência artificial. Numa altura em que o multilateralismo se encontra muito enfraquecido e a inteligência artificial é vista como um sector estratégico para muitos Estados, esta ambição é concretizável?

Pois essa é uma questão política complexa e, de facto, não posso ajudar muito. Existe, neste momento, um grande esforço de regulação a nível europeu, em particular. Ainda estão por definir, exactamente, quais vão ser os organismos reguladores, tanto a nível internacional como a nível nacional. Portanto, é para mim bastante difícil dizer se a França vai ter ou não sucesso, mas seguramente haverá muitos países interessados nisso e até poderemos vir a optar por uma solução distribuída, em que não haja um organismo concentrado num único país.

Recentemente, afirmou numa entrevista que a inteligência artificial está a revolucionar as profissões, tornando-as mais produtivas. Qual é o impacto que a inteligência artificial terá nas profissões do futuro?

Há muitas tarefas que fazemos todos os dias e que acabam por ser relativamente repetitivas, seja responder a e-mails, preencher formulários ou ler documentos. Uma grande parte dessas tarefas são desempenhadas por pessoas que trabalham em serviços, vendas, entre outras áreas. De facto, muitas dessas actividades podem ser realizadas por inteligência artificial, conduzindo a um aumento significativo da produtividade. Isso também se aplica a outras profissões, como nas áreas jurídica, médica, etc.

Na parte do diagnóstico?

Na parte do diagnóstico, na elaboração de relatórios, na análise do histórico dos pacientes e na análise de imagens, por exemplo. Todas estas tarefas consomem muito tempo dos profissionais. Por vezes, nem sequer se conseguem concentrar na conversa com o paciente, no caso dos médicos, quando poderiam ser feitas com grande vantagem por sistemas de inteligência artificial, no atendimento ao cliente, no atendimento telefónico, etc.

Há um risco desta tecnologia não chegar a todos, ou seja, de esta redistribuição deixar alguns de fora?

Há o risco, tal como houve pessoas que não acompanharam a revolução digital e não estão à vontade com computadores, de não acompanharem também esta revolução da inteligência artificial. Se não dominarem as técnicas associadas à inteligência artificial, poderão ficar em desvantagem relativamente a outros. Acho que este é um risco sério, embora, para ser honesto, muitas destas técnicas sejam bastante acessíveis, muitas delas podendo ser utilizadas através de interacção em linguagem natural, seja por voz ou escrita, com estes sistemas. Também há esperança de que, de facto, seja mais fácil entrar nesta nova área tecnológica do que foi na anterior, em que tivemos de aprender a lidar com o Excel, o Word, o e-mail, etc. Portanto, esse risco existe. Acho que depende um pouco de como os Estados e as instituições irão abordar essa questão. Penso que o risco existe e devemos estar atentos para que não haja consequências negativas de exclusão.

Tem-se falado muito na questão da desinformação, até mesmo na questão dos direitos humanos e da boa governação. Como é que se pode lutar contra esta realidade?

Eu acho que o risco da desinformação é real. O risco de ser criada, propositadamente, informação falsa e [supostamente] credível, dirigida às pessoas que acreditam, pode resultar em fraudes ou, simplesmente, em desinformação. E há o risco de radicalização. Existe outro risco, que não é exactamente informação, mas sim a personalização da informação apresentada a cada pessoa, o que acaba por reforçar as crenças que essa pessoa tem, tornando as posições mais radicais e dificultando o diálogo democrático. Penso que estamos a assistir a isso tanto nos Estados Unidos, como na Europa, com posições cada vez mais extremadas, os partidos da extrema-direita e da extrema-esquerda a ganhar força, uma vez que as pessoas veem muito conteúdo que reforça aquilo em que já acreditam, em vez de tentarem encontrar um ponto de encontro ouvindo também a informação do outro lado. E, de facto, a inteligência artificial desempenha um papel na personalização, talvez excessiva, da informação e na escolha da informação dirigida a cada um de nós.

“A legislação vai andar a correr atrás da tecnologia”, a frase é sua. Onde a Europa regula, os Estados Unidos estão a desregular. Como se consegue um equilíbrio em matéria de regulamentação?

Esta é uma questão complexa. A União Europeia, de facto, está empenhada, a meu ver correctamente, em regular de forma a minorar os riscos. Mas essa abordagem não é acompanhada nem pelos Estados Unidos, nem pela China, nem por outros países. Portanto, estamos um pouco isolados ao tentar regular uma tecnologia que é, na verdade, global. Por um lado, isso torna mais difícil desenvolver essa tecnologia na Europa e, por outro, faz com que não seja óbvio que essa regulação venha a ser aplicável, fazendo com que a Europa fique simplesmente excluída de algumas tecnologias que não estão de acordo com a nossa legislação. Claro que, neste momento, os países que estão na linha da frente do desenvolvimento destas tecnologias são os Estados Unidos e a China. E a Europa vai correr muito atrás da tecnologia, que se está a desenvolver muito rapidamente. Qualquer regulação que seja feita estará inevitavelmente desactualizada em seis meses ou um ano. Se pensarmos que na Europa o regulamento sobre inteligência artificial começou a ser discutido há cinco anos e que só agora teve uma versão final, profundamente revista, percebemos que a tecnologia está a desenvolver-se muito mais rapidamente que a regulação. Isso é, sem dúvida, um desafio para o qual não tenho uma grande solução. Precisamos ser mais ágeis nas discussões e na aprovação das regras.

Como se regula, por exemplo, a questão do armamento militar, nas armas que também utilizam inteligência artificial?

Essa é uma questão complexa. Não me parece que se venha a conseguir impedir o uso de inteligência artificial em armas. É seguramente uma questão muito difícil, mas não me parece que nenhum país, nem a Europa, possa dizer: "Nós aqui na Europa não vamos usar inteligência artificial em drones, nem mísseis teleguiados, etc." Quando os outros países usarem, penso que a regulação terá de ser semelhante à de outras tecnologias perigosas de armamento, como as bombas nucleares, as armas químicas ou biológicas. Tem de haver acordos internacionais que limitem, eventualmente, não toda a aplicação da inteligência artificial em armas, mas um certo conjunto de aplicações que são consideradas inaceitáveis.

A regulação europeia, que muitas vezes é apontada como pesada, nomeadamente pelos Estados Unidos, pode, de certa forma, afastar os negócios com as empresas europeias?

Sim, eu acho que existe esse risco, ou que a Europa não tenha acesso fácil a versões mais avançadas de certos sistemas que não estão de acordo com as nossas regras. Por outro lado, isso também não é claramente negativo, no sentido de que alguns desses temas poderão ser perigosos para jovens ou pessoas menos informadas. Portanto, eu acho que existe realmente o risco de a Europa não ter acesso ou não desenvolver essas tecnologias mais avançadas, mas é também uma opção. Existe também a esperança de que o efeito de Bruxelas venha a ser efectivo, ou seja, que a regulamentação aprovada na Europa influencie de alguma forma a regulação em outros blocos e que a Europa seja, assim, um pouco líder na criação da regulação adequada a esta tecnologia.

Acredita que, na rivalidade entre os Estados Unidos e a China, a Europa pode ser mediadora? De que forma é que a Europa pode mediar esta rivalidade?

Pois, essa é uma opinião que defendi. Eu penso que a Europa está, neste momento, muito alinhada com a posição norte-americana em muitas questões, particularmente na área da tecnologia. Mas parece-me que a Europa poderia desempenhar um papel mais de "fiel da balança", tentando, por um lado, manter-se ligada política e economicamente aos Estados Unidos, mas não se desligando completamente da China, nem diplomaticamente nem economicamente, de forma a tentar fazer com que a China siga também as regulações e direcções apontadas pela Europa. Portugal tem aqui um papel muito importante. A relação privilegiada com Macau, uma vez que é o único país da União Europeia com uma relação privilegiada com a China, através de uma região autónoma especial, que é fundamental. Portanto, Portugal tem um papel muito importante, que deve assumir, de manter relações diplomáticas e económicas fortes com a China.

A China lançou recentemente o DeepSeek que está a criar alguma controvérsia. Para além de ter mostrado que se pode avançar com uma aplicação com menos custos e investimento, há vários países que falam de questões de segurança. Quais são, de facto, os verdadeiros riscos do DeepSeek?

O DeepSeek mostrou, de facto, que é possível ter modelos de grande qualidade a preços bem mais baixos do que se pensava até agora. Os riscos são óbvios. Se usarmos modelos do DeepSeek na China, estamos a enviar informação que, primeiramente, pode ser usada para desenvolver modelos futuros e, assim, avançar ainda mais. A tecnologia chinesa, por si, não me parece particularmente grave, mas pode ser usada em questões que envolvem segurança, o que é uma preocupação. No entanto, os modelos foram libertados em código aberto e nós não precisamos de correr esses modelos nos servidores da China. Podemos descarregá-los e executá-los localmente, o que muitas instituições, incluindo as nossas, têm feito - em open source. Portanto, os modelos não precisam de ser corridos na China, podem ser adaptados localmente e, assim, os riscos de enviar informação para as autoridades chinesas são minimizados.

O sector digital representa, neste momento, 4% das emissões de gases com efeito de estufa, numa altura em que se fala em política ambiental e no aquecimento global. Que resposta se dá a este problema?

Se não me engano, o número está ligeiramente abaixo desses 4%. O digital consome cerca de 2% da energia total, talvez um pouco mais de 2% das emissões, pois está muito dependente da electricidade, que é mais intensiva, mas está à volta de 2% a 3%. Embora este valor seja relativamente baixo, é importante notar que não se trata apenas da inteligência artificial. Esse número abrange todos os telemóveis, todos os computadores, todos os servidores, as bases de dados, os termos de informação, a internet, etc. E, embora seja relevante, também devemos perceber que, com esses 2% ou 3%, poupamos muito mais em termos de deslocações, transportes, trabalho remoto e outras áreas. Se não houvesse a internet, haveria muito mais trânsito e as emissões seriam muito superiores. Portanto, penso que esse problema não é uma preocupação grave no momento. Se continuarmos a desenvolver centros de dados e o consumo de energia continuar a crescer, aí sim, poderemos começar a pensar sobre isso. Mas a tendência não será, provavelmente, nesse sentido.

A França destaca-se nesta questão da criação de centros de dados com a energia nuclear?

Sim, a França é, na minha opinião, exemplar nesse aspecto, uma vez que é um dos países que menos emite dióxido de carbono por kilowatt-hora gerado, justamente devido à sua opção pela energia nuclear. Como se sabe, é uma opção relativamente rara na Europa. Em Portugal, não existe. Pessoalmente, penso que é uma opção correta, enquanto as novas gerações de tecnologia, como a fusão nuclear, não se tornam viáveis. Portanto, gostaria que outros países seguissem o exemplo da França.

No futuro, as empresas que dominarem a inteligência artificial vão liderar o mercado. Daqui a 20 anos, os seres humanos estarão sujeitos às máquinas?

Penso que isso é um risco relativamente distante, uma vez que - pelo menos por enquanto e no futuro previsível - temos a capacidade de influenciar o desenvolvimento da tecnologia. Não há razão para desenvolvermos a tecnologia de forma que ela se torne, de alguma maneira, perigosa para a humanidade. Posto isto, sempre existirá a possibilidade de um Estado ou uma empresa, até um Estado terrorista, desenvolver tecnologias baseadas em Inteligência Artificial que possam ser perigosas. Isso não é novo. É o mesmo com tecnologias biológicas, químicas e mesmo nucleares. ANG/RFI

Sem comentários:

Enviar um comentário