INOVA
Colaboração entre governos, empresas e reguladores é essencial para desenvolver mecanismos de segurança para IA

Colaboração entre governos, empresas e reguladores é essencial para desenvolver mecanismos de segurança para IA

A Check Point Research aponta que o caminho para o desenvolvimento de mecanismos de segurança robustos para a inteligência artificial deve passar pela colaboração entre os governos, as empresas e os reguladores

A Check Point Research alerta para o facto de a Inteligência Artificial (IA) ter o potencial de ser uma tecnologia transformadora que pode ter um impacto significativo na vida quotidiana, mas apenas com proibições e regulamentos adequados para garantir que é utilizada e desenvolvida de forma ética e responsável

A IA já demonstrou o seu potencial e tem a possibilidade de revolucionar muitas áreas, como os cuidados de saúde, as finanças, os transportes e outras. Pode automatizar tarefas aborrecidas, aumentar a eficiência e fornecer informações que anteriormente não eram possíveis. A IA pode também ajudar-nos a resolver problemas complexos, a tomar melhores decisões, a reduzir o erro humano ou a enfrentar tarefas perigosas, como desativar uma bomba, voar para o espaço ou explorar os oceanos. Mas, ao mesmo tempo, assistimos a uma utilização maciça das tecnologias de IA também para desenvolver ciberameaças”, afirma Rui Duro, Country Manager da Check Point Software Technologies em Portugal.

De um modo geral, o desenvolvimento da IA não é apenas mais uma moda passageira, mas resta saber qual o impacto positivo ou negativo que terá na sociedade. E embora a IA já exista há muito tempo, 2023 será recordado pelo público como o “ano da IA”. No entanto, continua a haver muito entusiasmo em torno desta tecnologia e algumas empresas podem estar a exagerar. Precisamos de ter expectativas realistas e não ver a IA como uma solução automática para todos os problemas do mundo.

É frequente ouvirmos preocupações sobre se a IA se aproximará ou mesmo ultrapassará as capacidades humanas. É difícil prever o seu grau de avanço, mas já existem várias categorias. A IA atual é designada por IA estreita ou “fraca” (ANI - Artificial Narrow Intelligence). A IA geral (AGI - Artificial General Intelligence) deverá funcionar como o cérebro humano, pensando, aprendendo e resolvendo tarefas como um ser humano. A última categoria é a Super Inteligência Artificial (ASI) e consiste basicamente em máquinas mais inteligentes do que os humanos.

Se a inteligência artificial atingir o nível de AGI, existe o risco de poder atuar por si própria e tornar-se numa ameaça para a humanidade. Por conseguinte, é necessário trabalhar no sentido de alinhar os objetivos e valores da IA com os dos seres humanos, defende a Check Point Research.

Para mitigar os riscos associados à IA avançada, é importante que os governos, as empresas e os reguladores trabalhem em conjunto para desenvolver mecanismos de segurança robustos, estabelecer princípios éticos e promover a transparência e a responsabilidade no seu desenvolvimento. Atualmente, existe um mínimo de regras e regulamentos. Existem propostas como a Lei da IA, mas nenhuma delas foi aprovada e, essencialmente, tudo até agora é regido pelas bússolas éticas dos utilizadores e dos criadores. Dependendo do tipo de IA, as empresas que desenvolvem e lançam sistemas de IA devem garantir, pelo menos, normas mínimas como a privacidade, a justiça, a explicabilidade ou a acessibilidade”, acrescenta Rui Duro.

Infelizmente, a IA também pode ser utilizada pelos cibercriminosos para aperfeiçoar os seus ataques, identificar automaticamente vulnerabilidades, criar campanhas de phishing direcionadas, fazer engenharia social ou criar malware avançado que pode alterar o seu código para melhor escapar à deteção. A IA também pode ser utilizada para gerar deepfakes de áudio e vídeo convincentes que possam ser utilizados para manipulação política, provas falsas em julgamentos criminais ou para enganar os utilizadores para que paguem dinheiro.

Mas a IA é também uma ajuda importante na defesa contra ciberataques em particular. Por exemplo, a Check Point utiliza mais de 70 ferramentas diferentes para analisar ameaças e proteger contra ataques, mais de 40 das quais são baseadas em IA. Estas tecnologias ajudam na análise comportamental, analisando grandes quantidades de dados de ameaças de uma variedade de fontes, incluindo a darknet, facilitando a deteção de vulnerabilidades Zero Day ou a automatização da correção de vulnerabilidades de segurança.

Recentemente, foram também discutidas várias proibições e restrições à IA. No caso do ChatGPT, as preocupações estão principalmente relacionadas com a privacidade, uma vez que já vimos fugas de dados, e o limite de idade dos utilizadores também não é abordado. No entanto, o bloqueio de serviços semelhantes tem apenas um efeito limitado, uma vez que qualquer utilizador um pouco mais experiente pode contornar a proibição utilizando uma VPN, por exemplo, e existe também um comércio intenso de contas premium roubadas. O problema é que a maioria dos utilizadores não se apercebe de que as informações sensíveis introduzidas no ChatGPT serão muito valiosas se forem divulgadas, podendo ser utilizadas para fins de marketing direcionado. Estamos a falar de uma potencial manipulação social a uma escala nunca vista”, salienta Rui Duro.

O impacto da IA na sociedade dependerá da forma como se optar por desenvolver e utilizar esta tecnologia. Será importante ponderar os potenciais benefícios e riscos, procurando simultaneamente assegurar que a IA é desenvolvida de forma responsável, ética e benéfica para a sociedade.

RECOMENDADO PELOS LEITORES

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.