INOVA
Responsible AI - Quem guardará os guardiões?

Responsible AI - Quem guardará os guardiões?

À medida que as tecnologias de inteligência artificial evoluem, passando da fase experimental para aplicações com real impacto no mundo, torna-se também mais premente a necessidade de garantir que estas são aplicadas de forma ética, transparente e responsável

Fresno, Califórnia, 2016: através de um sistema de reconhecimento facial associado a câmaras de videovigilância, o sistema de analítica Beware, utilizado pela polícia local, identifica um indivíduo entre a multidão. Classificada – através de dados demográficos, residência, dados comerciais, atividade em redes sociais, entre outros – como apresentando alto risco de atividade criminosa, a pessoa em questão é parada por um agente, e informada que, apesar de não ter cadastro, se encontra listada como um potencial criminoso.

Apesar de facilmente passar pelo enredo de um filme de ficção científica como o "Relatório Minoritário" de Spielberg, ou a mais recente série "Black Mirror", este foi apenas uma das primeiras reais tentativas de uso de Inteligência Artificial (IA) em aplicações críticas – e não foi a última, nem a mais contestada. Já em 2020, a polícia de Chicago esteve sob escrutínio pela sua associação à controversa ferramenta de inteligência artificial Clearview AI, que, até à reforma do programa, lhe fornecia acesso a uma vasta base de dados de fotografias retiradas ilicitamente de redes sociais e aplicações móveis para uso em ferramentas de reconhecimento facial, quando anteriormente só poderia utilizar fotografias de pessoas com registo criminoso.

Sendo estes exemplos extremos e de natureza mais sensível, não deixam de ser ilustrativos de uma questão cada vez mais premente: com a inteligência artificial a sair dos laboratórios para as ruas, empresas e entidades públicas, quais são as implicações éticas do uso de ferramentas tão poderosas em aplicações com real impacto na vida das pessoas? E, mais importante ainda, como podemos garantir que são utilizadas de forma responsável?

Porque não restam dúvidas que a IA chegou para ficar: de acordo com a Gartner, apesar do entrave inicial aos investimentos tecnológicos no início da pandemia, 47% dos projetos de inteligência artificial não sofreram alterações, e 30% das organizações inquiridas pretendiam ainda aumentar o investimento. É, assim, evidente que as empresas veem grande potencial na IA, potencial este que é repetidamente comprovado pelo ROI na otimização de processos, ajuda na tomada de decisão e oferta de novos serviços.

Estes sucessos, contudo, escondem muitas vezes implicações que, face aos benefícios diretos para o negócio, passam despercebidos. Da mesma forma que os primeiros carros autónomos trouxeram consigo uma epidemia de acidentes causados pelo excesso de confiança dos automobilistas, que se viam apenas como passageiros, também a inteligência artificial é ainda vista, por quem a procura adotar, como fundamentalmente objetiva e infalível. A realidade é que a IA não deixa de ser programada por humanos, treinada com dados recolhidos e tratados por humanos, e integrada em processos concebidos por humanos.

Assim, as implicações éticas da IA ficam muitas vezes por discutir, ou mesmo ponderar, particularmente em aplicações nas quais, ao contrário dos exemplos antes mencionados, os riscos não são tão óbvios. Por exemplo, numa aplicação na qual é usada IA para agilizar o processo de recrutamento, a solução pode atingir o seu objetivo operacional e ser, como tal, considerada bem-sucedida. Contudo, se não houver transparência e controlo sobre os modelos e dados utilizados na construção dessa aplicação, é possível que o processo de seleção de candidatos seja tão tendencioso como se estivesse a ser realizado por humanos – e, ao contrário destes, a IA não é questionada.

Parte do problema, explica Guilherme Ramos Pereira, Diretor Executivo na DSPA, é a falta da compreensão por parte dos decisores – públicos e privados – do funcionamento da IA, estando esta relegada, aos seus olhos, a uma elite de especialistas em dados e analítica. Por seu lado, estes profissionais tendem a estar mais focados na perspetiva tecnológica, não tendo uma visão suficientemente alargada sobre o contexto e processo de decisão. Isto naturalmente leva a que, na integração da IA nos processos de negócio, o seu impacto – positivo ou negativo – não seja avaliado de forma holística nem discutido de forma transparente.

“Até que os benefícios e as consequências da integração de IA nos processos empresariais sejam discutidos de forma transparente, dificilmente se endereçará ética”, alerta o responsável, concedendo que, no entanto, “a entrada de entidades governamentais, normas tais como o RGPD e ou impostos orientados ao consumo poderão também forçar uma evolução mais rápida da ética”.

Para além desta lacuna, Ricardo Almeida Silva, Digital Director da Brighten, acrescenta ainda que, independentemente da componente processual, no que toca a novas tecnologias, o foco inicial é sempre colocado em primeiro lugar na evolução e estabilização da tecnologia, sendo que as questões de cariz social surgem posteriormente, somente quando os sistemas evidenciam um potencial para comprometer alguma integridade humana.

“Historicamente tem sido assim, como é o caso do RGPD. A ética a nível da inteligência e uso informático responsável devem ser encarados como um pilar basilar na sociedade e nos negócios, enraizada tal como em tantos outros bons princípios”, conclui.

Quem fica responsável?

Outro tópico comummente discutido quando se fala de ética na inteligência artificial é a responsabilidade: se um sistema de IA toma determinada decisão com consequências negativas, quem é responsável? E, se ninguém for responsabilizado pelo acidente de um carro autónomo, por um diagnóstico errado, ou por um processo judicial injusto, que motivação existe para garantir que estes sistemas são adequadamente desenvolvidos e implementados?

Este é um tópico frequentemente ilustrado pelo exercício filosófico conhecido como ‘dilema do comboio’. Na sua versão mais simples, um indivíduo encontra-se perante a bifurcação de um carril, na trajetória de um comboio em andamento. Na trajetória atual do comboio, encontram- se cinco pessoas atadas ao carril; no carril adjacente, para o qual o indivíduo pode mudar a trajetória, apenas uma; é mais ético puxar a alavanca, salvando um maior número de pessoas, mas tornando-se diretamente responsável por uma morte, ou deixar que o cenário se desenrole como teria de outro modo acontecido?

Este dilema é frequentemente usado como analogia ao tipo de decisão que terá de ser programada em veículos totalmente autónomos: em caso de potencial colisão com uma criança na estrada, não tendo outra escolha, dever-se-á desviar para uma trajetória que leve ao atropelamento de outro peão, adulto? Ou deve, por outro lado, desviar-se na direção de um edifício, potencialmente levando à morte do passageiro? Tudo isto terá de ser programado deliberadamente e estas escolhas serão responsabilidade direta de quem as tomar no processo de desenvolvimento. Não é, afinal, por acaso que a Gartner prevê que até 2024 60% dos fornecedores de soluções de IA irão oferecer mitigação de danos e uso indevido como parte do seu software.

Mas, num sentido menos prosaico, é também muito representativo da própria noção de responsabilidade na inteligência artificial. Veículos totalmente autónomos levarão a uma menor sinistralidade, mas todos os acidentes que ocorrerem são responsabilidade direta de quem programou o sistema para fazer essa escolha. E apesar de este exemplo ser, pela sua criticidade, mais ilustrativo desta questão, o mesmo se aplica a qualquer outra aplicação, da gestão documental ao diagnóstico médico.

“Terá de ser necessário que a União Europeia lance diretivas face a este tema, e já há grupos de trabalho para isso, mas vai ser lento, como tudo o que é burocrático”, explica Rui Sabino, CEO da Esri Portugal. “Isto vai ser muito difícil de legislar, porque existem milhões de diferentes processos a ter em consideração, mas gradualmente vai acabar por acontecer, sob risco de atrasar a adoção na Europa face ao desenvolvimento da tecnologia a nível global”.

Não há tamanhos únicos

Ao contrário do conceito teórico de general AI – uma inteligência artificial com a capacidade de aprender e realizar autonomamente qualquer tarefa cognitiva de que uma mente humana é capaz – a tecnologia de inteligência artificial atualmente existente é intitulada de ‘narrow AI’. Ou seja, apenas tem a capacidade de realizar um conjunto de processos específicos ao seu propósito em concreto. Isto significa que, para operar devidamente, deve ser sujeita a um período de treino e teste, com base em grandes volumes de dados relativos a esse mesmo processo realizado manualmente, de modo a aprender a detetar padrões e tomar decisões com base em factos e princípios pré-estabelecidos e conclusões previamente retiradas por seres humanos.

“Já passámos por muitos projetos em que tivemos de explicar ao cliente que a IA não faz tudo sozinha”, relata Rui Sabino. “É um complemento muito útil para um conjunto de processos que se podem tornar mais eficientes e menos propensos a erros por falha humana em tarefas mais rotineiras, mas a máquina depende muito dos dados que lhes são fornecidos e como treinamos os modelos. É só mais um processo digital”.

Como tal, cada sistema de IA é estritamente específico ao conceito no qual opera – não só em termos de função, como também da aplicação específica. Ou seja: nenhuma solução é plug-n-play, requerendo sempre um período de teste e aprendizagem com base nos dados específicos da organização e dos processos nos quais será integrada.

“A aprendizagem dos modelos deve ter supervisão. Tal como uma criança que vai aprendendo, damos liberdades para ir experimentando, mas observamos para o caso de ser necessário e corrigirmos, se assim tiver que ser”, conclui Guilherme Ramos Pereira.

Mesmo após a conclusão deste período de aprendizagem, quando a IA está suficientemente treinada e testada para poder operar autonomamente e com segurança, é importante compreender que nenhum sistema cognitivo terá o contexto para processar adequadamente 100% das situações com que se possa deparar, particularmente em aplicações de cariz mais complexo. Como tal, o responsável frisa ainda que é fundamental que exista espaço para que o humano interaja com os modelos criados, principalmente em situações novas ou de conflito do tipo “trolley problem”, de forma a validar e conduzir caminhos.

“É questionável o futuro dos princípios de ética, pois ao dar cada vez mais liberdade para que as máquinas aprendam ou tomem decisões de forma autónoma, significa que dessa aprendizagem a IA tem a capacidade de otimizar ou reescrever o seu código para um novo comportamento”, acautela. “Este deve ser algo que devemos questionar se é o caminho e o futuro que pretendemos. Cada componente de AI deve ter o seu propósito e contexto bem definido, pois devem ser estes a reger os limites de atuação e aprendizagem.”

O que devem fazer as empresas?

Até ao lançamento de diretivas concretas, caberá às organizações garantir que os princípios aplicados na integração de IA nos seus processos não só salvaguarda a continuidade de negócio e o sucesso da implementação, como também o uso responsável destas tecnologias.

Para tal, é necessário estabelecer um conjunto de princípios orientadores – e apesar da definição exata de ética ser debatida há milénios, o consenso geral nas discussões em torno de inteligência artificial está na priorização da dignidade humana. Ou, nas palavras de Ricardo Almeida Silva, “os sistemas inteligentes devem ser concebidos e operados de forma compatível com a dignidade, direitos, liberdade humana e diversidade cultural”.

“Estes princípios fazem parte de uma lista mais alargada cujo objetivo é servir de base a uma criação e uso responsável da tecnologia inteligente, por forma a aumentar a capacidade e experiência humana sem causar eventos que possam expor a integridade ou a vivência na sua plenitude”, conclui.

Mas mesmo antes de sequer ser feita esta pergunta, alerta Guilherme Ramos Pereira, é necessário avaliar a necessidade para a implementação de IA, estabelecer objetivos e criar um roadmap que tenha em conta todas as variáveis envolvidas no potencial projeto:

“É preciso fazer muitas perguntas. Sejam experts de negócio ou data scientists os decisores que devem considerar os vários stakeholders, bem como uma consciente tomada de decisão sobre a ownership e responsabilização do asset de IA no contexto em questão”.

Tal como acontece com o RGPD, outro princípio fundamental da aplicação responsável de inteligência artificial é o seu propósito, e a restrição do seu uso ao mesmo:

“O mero facto de questionarmos se pelo facto de podermos fazer algo o devemos mesmo fazer leva-nos a considerar vários fatores: o que pode acontecer de errado, como podemos confinar ao propósito, pois, a maioria das vezes, desrespeitar princípios éticos é quando se vai mais além do propósito definido”, refere Guilherme Ramos Pereira.

Segundo o responsável, a chave está na integração entre os processos com IA e os tradicionalmente mediados por intervenção humana, conseguindo assim “assegurar que o grau de confiança e conforto necessários, sobre decisões entre IA ou humana serão equiparadas ou melhoradas e pronta a escalar”, bem como mais facilmente analisar potenciais colisões entre os novos processos automáticos e os princípios pré-estabelecidos nos processos tradicionais.

Tags

NOTÍCIAS RELACIONADAS

RECOMENDADO PELOS LEITORES

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.