Inteligência Artificial/ "Não há razão para que se torne perigosa para a
humanidade", diz especialista português
Bissau, 11 Fev 25 (ANG) - A capital francesa acolhe desde segunda-feira,
a cimeira internacional sobre Inteligência Artificial, prevista para durar
dois.
Neste encontro de alto nível, co-presidido com a Índia, a França
quer mostrar-se "como a verdadeira campeã da IA na Europa" e alertar
para os riscos.
Arlindo Oliveira, especialista português em
inteligência artificial - que participa nos trabalhos da cimeira - reconhece
que os riscos existem, porém acredita que "não há razão para que a
Inteligência Artificial se torne perigosa para a humanidade".
Qual é o objectivo desta cimeira sobre
Inteligência Artificial?
Esta cimeira não é a primeira que
ocorre. Concentra-se essencialmente nas questões do desenvolvimento da
tecnologia, de forma a que os resultados sejam positivos e a minimizar as
consequências negativas. Há, portanto, um grande foco nos riscos causados pela
inteligência artificial, quer nos riscos imediatos, quer nos riscos a médio e
longo prazo. Muitos países têm-se associado a este esforço, por perceberem que
a inteligência artificial tem um grande impacto na sociedade.
A França tem ambições de acolher o
organismo responsável por enquadrar a inteligência artificial. Numa altura em
que o multilateralismo se encontra muito enfraquecido e a inteligência
artificial é vista como um sector estratégico para muitos Estados, esta ambição
é concretizável?
Pois essa é uma questão política
complexa e, de facto, não posso ajudar muito. Existe, neste momento, um grande
esforço de regulação a nível europeu, em particular. Ainda estão por definir,
exactamente, quais vão ser os organismos reguladores, tanto a nível
internacional como a nível nacional. Portanto, é para mim bastante difícil
dizer se a França vai ter ou não sucesso, mas seguramente haverá muitos países
interessados nisso e até poderemos vir a optar por uma solução distribuída, em
que não haja um organismo concentrado num único país.
Recentemente, afirmou numa entrevista
que a inteligência artificial está a revolucionar as profissões, tornando-as
mais produtivas. Qual é o impacto que a inteligência artificial terá nas
profissões do futuro?
Há muitas tarefas que fazemos todos os
dias e que acabam por ser relativamente repetitivas, seja responder a e-mails,
preencher formulários ou ler documentos. Uma grande parte dessas tarefas são
desempenhadas por pessoas que trabalham em serviços, vendas, entre outras
áreas. De facto, muitas dessas actividades podem ser realizadas por
inteligência artificial, conduzindo a um aumento significativo da
produtividade. Isso também se aplica a outras profissões, como nas áreas
jurídica, médica, etc.
Na parte do diagnóstico?
Na parte do diagnóstico, na elaboração
de relatórios, na análise do histórico dos pacientes e na análise de imagens,
por exemplo. Todas estas tarefas consomem muito tempo dos profissionais. Por
vezes, nem sequer se conseguem concentrar na conversa com o paciente, no caso
dos médicos, quando poderiam ser feitas com grande vantagem por sistemas de
inteligência artificial, no atendimento ao cliente, no atendimento telefónico,
etc.
Há um risco desta tecnologia não chegar
a todos, ou seja, de esta redistribuição deixar alguns de fora?
Há o risco, tal como houve pessoas que
não acompanharam a revolução digital e não estão à vontade com computadores, de
não acompanharem também esta revolução da inteligência artificial. Se não
dominarem as técnicas associadas à inteligência artificial, poderão ficar em
desvantagem relativamente a outros. Acho que este é um risco sério, embora,
para ser honesto, muitas destas técnicas sejam bastante acessíveis, muitas
delas podendo ser utilizadas através de interacção em linguagem natural, seja
por voz ou escrita, com estes sistemas. Também há esperança de que, de facto,
seja mais fácil entrar nesta nova área tecnológica do que foi na anterior, em
que tivemos de aprender a lidar com o Excel, o Word, o e-mail, etc. Portanto,
esse risco existe. Acho que depende um pouco de como os Estados e as
instituições irão abordar essa questão. Penso que o risco existe e devemos
estar atentos para que não haja consequências negativas de exclusão.
Tem-se falado muito na questão da
desinformação, até mesmo na questão dos direitos humanos e da boa governação.
Como é que se pode lutar contra esta realidade?
Eu acho que o risco da desinformação é real.
O risco de ser criada, propositadamente, informação falsa e [supostamente]
credível, dirigida às pessoas que acreditam, pode resultar em fraudes ou,
simplesmente, em desinformação. E há o risco de radicalização. Existe outro
risco, que não é exactamente informação, mas sim a personalização da informação
apresentada a cada pessoa, o que acaba por reforçar as crenças que essa pessoa
tem, tornando as posições mais radicais e dificultando o diálogo democrático.
Penso que estamos a assistir a isso tanto nos Estados Unidos, como na Europa,
com posições cada vez mais extremadas, os partidos da extrema-direita e da
extrema-esquerda a ganhar força, uma vez que as pessoas veem muito conteúdo que
reforça aquilo em que já acreditam, em vez de tentarem encontrar um ponto de
encontro ouvindo também a informação do outro lado. E, de facto, a inteligência
artificial desempenha um papel na personalização, talvez excessiva, da
informação e na escolha da informação dirigida a cada um de nós.
“A legislação vai andar a correr atrás
da tecnologia”, a frase é sua. Onde a Europa regula, os Estados Unidos estão a
desregular. Como se consegue um equilíbrio em matéria de regulamentação?
Esta é uma questão complexa. A União
Europeia, de facto, está empenhada, a meu ver correctamente, em regular de
forma a minorar os riscos. Mas essa abordagem não é acompanhada nem pelos
Estados Unidos, nem pela China, nem por outros países. Portanto, estamos um
pouco isolados ao tentar regular uma tecnologia que é, na verdade, global. Por
um lado, isso torna mais difícil desenvolver essa tecnologia na Europa e, por
outro, faz com que não seja óbvio que essa regulação venha a ser aplicável,
fazendo com que a Europa fique simplesmente excluída de algumas tecnologias que
não estão de acordo com a nossa legislação. Claro que, neste momento, os países
que estão na linha da frente do desenvolvimento destas tecnologias são os
Estados Unidos e a China. E a Europa vai correr muito atrás da tecnologia, que
se está a desenvolver muito rapidamente. Qualquer regulação que seja feita
estará inevitavelmente desactualizada em seis meses ou um ano. Se pensarmos que
na Europa o regulamento sobre inteligência artificial começou a ser discutido
há cinco anos e que só agora teve uma versão final, profundamente revista, percebemos
que a tecnologia está a desenvolver-se muito mais rapidamente que a regulação.
Isso é, sem dúvida, um desafio para o qual não tenho uma grande solução.
Precisamos ser mais ágeis nas discussões e na aprovação das regras.
Como se regula, por exemplo, a questão
do armamento militar, nas armas que também utilizam inteligência artificial?
Essa é uma questão complexa. Não me
parece que se venha a conseguir impedir o uso de inteligência artificial em
armas. É seguramente uma questão muito difícil, mas não me parece que nenhum
país, nem a Europa, possa dizer: "Nós aqui na Europa não vamos usar
inteligência artificial em drones, nem mísseis teleguiados, etc." Quando
os outros países usarem, penso que a regulação terá de ser semelhante à de
outras tecnologias perigosas de armamento, como as bombas nucleares, as armas
químicas ou biológicas. Tem de haver acordos internacionais que limitem,
eventualmente, não toda a aplicação da inteligência artificial em armas, mas um
certo conjunto de aplicações que são consideradas inaceitáveis.
A regulação europeia, que muitas
vezes é apontada como pesada, nomeadamente pelos Estados Unidos, pode, de certa
forma, afastar os negócios com as empresas europeias?
Sim, eu acho que existe esse risco, ou
que a Europa não tenha acesso fácil a versões mais avançadas de certos sistemas
que não estão de acordo com as nossas regras. Por outro lado, isso também não é
claramente negativo, no sentido de que alguns desses temas poderão ser
perigosos para jovens ou pessoas menos informadas. Portanto, eu acho que existe
realmente o risco de a Europa não ter acesso ou não desenvolver essas
tecnologias mais avançadas, mas é também uma opção. Existe também a esperança
de que o efeito de Bruxelas venha a ser efectivo, ou seja, que a regulamentação
aprovada na Europa influencie de alguma forma a regulação em outros blocos e
que a Europa seja, assim, um pouco líder na criação da regulação adequada a
esta tecnologia.
Acredita que, na rivalidade entre os
Estados Unidos e a China, a Europa pode ser mediadora? De que forma é que a
Europa pode mediar esta rivalidade?
Pois, essa é uma opinião que defendi. Eu
penso que a Europa está, neste momento, muito alinhada com a posição
norte-americana em muitas questões, particularmente na área da tecnologia. Mas
parece-me que a Europa poderia desempenhar um papel mais de "fiel da
balança", tentando, por um lado, manter-se ligada política e
economicamente aos Estados Unidos, mas não se desligando completamente da
China, nem diplomaticamente nem economicamente, de forma a tentar fazer com que
a China siga também as regulações e direcções apontadas pela Europa. Portugal
tem aqui um papel muito importante. A relação privilegiada com Macau, uma vez
que é o único país da União Europeia com uma relação privilegiada com a China, através
de uma região autónoma especial, que é fundamental. Portanto, Portugal tem um
papel muito importante, que deve assumir, de manter relações diplomáticas e
económicas fortes com a China.
A China lançou recentemente o DeepSeek
que está a criar alguma controvérsia. Para além de ter mostrado que se pode
avançar com uma aplicação com menos custos e investimento, há vários países que
falam de questões de segurança. Quais são, de facto, os verdadeiros riscos do
DeepSeek?
O DeepSeek mostrou, de facto, que é
possível ter modelos de grande qualidade a preços bem mais baixos do que se
pensava até agora. Os riscos são óbvios. Se usarmos modelos do DeepSeek na
China, estamos a enviar informação que, primeiramente, pode ser usada para
desenvolver modelos futuros e, assim, avançar ainda mais. A tecnologia chinesa,
por si, não me parece particularmente grave, mas pode ser usada em questões que
envolvem segurança, o que é uma preocupação. No entanto, os modelos foram
libertados em código aberto e nós não precisamos de correr esses modelos nos
servidores da China. Podemos descarregá-los e executá-los localmente, o que
muitas instituições, incluindo as nossas, têm feito - em open source. Portanto,
os modelos não precisam de ser corridos na China, podem ser adaptados
localmente e, assim, os riscos de enviar informação para as autoridades
chinesas são minimizados.
O sector digital representa, neste
momento, 4% das emissões de gases com efeito de estufa, numa altura em que se
fala em política ambiental e no aquecimento global. Que resposta se dá a este
problema?
Se não me engano, o número está
ligeiramente abaixo desses 4%. O digital consome cerca de 2% da energia total,
talvez um pouco mais de 2% das emissões, pois está muito dependente da
electricidade, que é mais intensiva, mas está à volta de 2% a 3%. Embora este
valor seja relativamente baixo, é importante notar que não se trata apenas da
inteligência artificial. Esse número abrange todos os telemóveis, todos os
computadores, todos os servidores, as bases de dados, os termos de informação,
a internet, etc. E, embora seja relevante, também devemos perceber que, com
esses 2% ou 3%, poupamos muito mais em termos de deslocações, transportes,
trabalho remoto e outras áreas. Se não houvesse a internet, haveria muito mais
trânsito e as emissões seriam muito superiores. Portanto, penso que esse
problema não é uma preocupação grave no momento. Se continuarmos a desenvolver
centros de dados e o consumo de energia continuar a crescer, aí sim, poderemos
começar a pensar sobre isso. Mas a tendência não será, provavelmente, nesse
sentido.
A França destaca-se nesta questão da
criação de centros de dados com a energia nuclear?
Sim, a França é, na minha opinião,
exemplar nesse aspecto, uma vez que é um dos países que menos emite dióxido de
carbono por kilowatt-hora gerado, justamente devido à sua opção pela energia
nuclear. Como se sabe, é uma opção relativamente rara na Europa. Em Portugal,
não existe. Pessoalmente, penso que é uma opção correta, enquanto as novas
gerações de tecnologia, como a fusão nuclear, não se tornam viáveis. Portanto,
gostaria que outros países seguissem o exemplo da França.
No futuro, as empresas que dominarem a
inteligência artificial vão liderar o mercado. Daqui a 20 anos, os seres
humanos estarão sujeitos às máquinas?
Penso que isso é um risco relativamente distante, uma vez que - pelo menos por enquanto e no futuro previsível - temos a capacidade de influenciar o desenvolvimento da tecnologia. Não há razão para desenvolvermos a tecnologia de forma que ela se torne, de alguma maneira, perigosa para a humanidade. Posto isto, sempre existirá a possibilidade de um Estado ou uma empresa, até um Estado terrorista, desenvolver tecnologias baseadas em Inteligência Artificial que possam ser perigosas. Isso não é novo. É o mesmo com tecnologias biológicas, químicas e mesmo nucleares. ANG/RFI
Sem comentários:
Enviar um comentário