INOVA
AI Ethics: “para que a inovação seja bem sucedida, é preciso que os cidadãos confiem”

AI Ethics: “para que a inovação seja bem sucedida, é preciso que os cidadãos confiem”

No painel AI Ethics do Building the Future 2022, discutiu-se a importância, os desafios, as preocupações e os princípios éticos do futuro da inteligência artificial

Substituto ou auxílio? Responsável ou discriminatória? Perigosa ou uma oportunidade? Estas foram algumas das questões debatidas no painel AI Ethics no primeiro dia do Building the Future 2022. Apesar de muito se falar na IA e como poderá amplificar as capacidades humanas, há uma série de princípios éticos que deve garantir e cujos resultados ainda despertam algumas dúvidas. 

Com a moderação de António Sarmento, jornalista na Multipublicações Media Group, o painel reuniu Pedro Bizarro, Co-founder e Chief Science Officer no unicórnio português Feedzai, Maria Manuela Leitão Marques, deputada no Parlamento Europeu, e Nádia da Costa Ribeiro, Senior Consultant na PLMJ. 

Desde logo, Pedro Bizarro afirma que, “tipicamente, a ética em IA vai muito além do que a própria lei diz”, acrescentando que, “neste momento, nada proíbe que uma rede social tenha algoritmos de IA que, de alguma forma, manipulem adolescentes a comportamentos depressivos ou de bulimia, mas também não é ético”.

É de notar que a CE apresentou, no ano passado, a primeira proposta de legislação para a IA e também a UNESCO adotou a primeira recomendação ética de IA. Um dos debates, embora não só no campo da IA, prende-se com as diferentes abordagens à tecnologia entre os Estados Unidos e a Europa, que, com princípios divergentes, poderia criar constrangimentos ao processo de adoção da tecnologia. Maria Manuela Leitão Marques nota que numa missão recente que a levou aos EUA, teve a oportunidade de comparar aquilo que se faz entre os dois lados do Atlântico: “há, obviamente, diferenças, mas também há muitos pontos de convergência. Os dois lados estão preocupados com o ritmo da inovação e com as questões éticas relacionadas com a IA”. 

Mais, refere que “os meios que estamos a usar é que podem ser diferentes”, com a UE a ter uma abordagem mais “reguladora”, que, com a atual disposição do Congresso, “não seria possível nos EUA, mas assisti a várias iniciativas que comprovam um grande esforço para desenvolver códigos de conduta voluntários para várias indústrias ligadas à transformação digital, portanto há uma preocupação comum”, completa a deputada. 

Não obstante, “temos que perceber que para que a inovação seja bem sucedida, é preciso que os cidadãos confiem”, que, por exemplo, se estiverem em contacto com um robô, ele está capacitado para responder e “foi programado por pessoas que conhecem e sabem o que estão a fazer”, e “se não houver confiança, a inovação pode ter um retrocesso, e a ética contribui para criar essa confiança”, que é fundamental para poder evoluir. Mais, é de não esquecer, segundo a deputada, que “muitas vezes os medos são infundados”.

Já Nádia da Costa Ribeiro, Senior Consultant na PLMJ, refere que “o grande desafio para o legislador tem a ver com uma disparidade entre os conceitos jurídicos e os conceitos técnicos”, que dificulta a “confluência de incorporar nos algoritmos conceitos jurídicos, para que depois respeitem princípios éticos”, ou seja, que “ao ser aplicado, não prejudique ninguém”. Nesse sentido, algo muito relevante num juiz, conta, é a “intuição”, que os “sistemas de IA não têm”, que começa por ser a primeira barreira à legislação: “como é que o legislador vai transformar a intuição em informação que pode ser padronizada e alimentada a algoritmos". 

Mais, discutiu-se a importância de a legislação ser acordada internacionalmente. Nádia da Costa Ribeiro refere que “se for feita por Estado, corremos o risco de ter uma fragmentação dos vários princípios e valores, para começar porque corremos o risco de misturar ética com moral”, porque os Estados têm conceções diferentes da importância dos valores, “há muita heterogeneidade” e “é necessário haver uma padronização”.

Tratando-se de uma algoritmo, “ninguém consegue garantir que a IA será sempre utilizada para o bem”, afirma Pedro Bizarro, mas “sou altamente otimista”, porque, por exemplo, “conseguimos ver que alguns algoritmos não estavam a ser muito corretos e conseguimos melhorá-los”. Ainda assim, são vários os casos em que a IA é discriminatória, pelo que se os dados já são enviesados é inevitável que propaguem a discriminação, “mas já existe, atualmente, várias formas de medir a discriminação nos algoritmos e treinar os algoritmos”.

“Os reguladores têm um papel difícil”, mas uma grande parte não quer deixar de lado tecnologia, que pode ser muito benéfica para a humanidade, assegura Maria Manuela Leitão Marques. No Parlamento Europeu, a IA é falada numa “abordagem de perspetiva de risco”, que deve exigir diferentes cuidados: "umas aplicações devem ser mais auditadas, algumas devem ser proibidas e outras devem ser permitidas by default”. No caso do reconhecimento facial, por um lado, o Parlamento Europeu reconhece é “uma tecnologia interessante e com aplicações importantes, mas por outro, num espaço público, em tempo real e sem autorização da utilização da utilização das imagens”, pode ser usada para formas de vigilância “que não estamos disponíveis para admitir na nossa sociedade”, onde “não convergimos com a China, onde há uma grande diferença nos modelos”. 

A Senior Consultant na PLMJ continua: “em relação ao reconhecimento facial, este é claramente um dos aspetos em que a IA peca, e temos visto situações em que as hyperscallers têm retirado o reconhecimento facial a entidades públicas, pelos enviesamentos e discriminação”. Mas é de notar que “o algoritmo é feito por humanos”. 

O dilema do legislador é “encontrar o equilíbrio”, porque não pode ser "totalmente a favor da proteção, paralisando a inovação, nem totalmente a favor da inovação, sem nenhuma confiança por parte dos cidadãos”, refere Maria Manuela Leitão Marques. Contudo, a deputada assegura que “as empresas estão conscientes” do tema e tem havido uma "discussão muito ativa no Parlamento”.

Uma dificuldade apontada por Nádia da Costa Ribeiro é que “o regulador tem algumas dificuldades de se manter a par da evolução tecnológica”, mas “cada vez mais os regulados têm vindo a interagir com os reguladores para que a regulação não fique cristalizada no tempo e se mantenha a par da atualidade”. 

A deputada do Parlamento Europeu conclui falando da necessidade de “aproximar os cidadãos do debate”, apostando “nas competências digitais, mas não apenas as competências básicas de há uns anos. Hoje, a literacia básica deve incluir, também, saber o que é um algoritmo, dados, IA”, etc, completa.

RECOMENDADO PELOS LEITORES

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.